JP4140394B2 - Imaging correction apparatus and imaging apparatus - Google Patents

Imaging correction apparatus and imaging apparatus Download PDF

Info

Publication number
JP4140394B2
JP4140394B2 JP2003027958A JP2003027958A JP4140394B2 JP 4140394 B2 JP4140394 B2 JP 4140394B2 JP 2003027958 A JP2003027958 A JP 2003027958A JP 2003027958 A JP2003027958 A JP 2003027958A JP 4140394 B2 JP4140394 B2 JP 4140394B2
Authority
JP
Japan
Prior art keywords
correction
image
imaging
processor
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003027958A
Other languages
Japanese (ja)
Other versions
JP2004241961A (en
Inventor
寛 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003027958A priority Critical patent/JP4140394B2/en
Publication of JP2004241961A publication Critical patent/JP2004241961A/en
Application granted granted Critical
Publication of JP4140394B2 publication Critical patent/JP4140394B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、撮像補正装置および撮像装置に関する。
【0002】
【従来の技術】
従来の撮像補正装置としては、補正時にレンズの前に画像補正用シャッタを挿入して補正を行う通常の補正方法と、輝度が均一の思われるもの(例えば「空」など)に視軸を向け、レンズのピントをぼかした状態で補正を行う「デフォーカスキャリブレーション」という方法がある。(例えば特許文献1参照)
【0003】
【特許文献1】
特開平10−142065号公報(従来の技術、段落6)
【0004】
【発明が解決しようとする課題】
従来の技術としては、画像補正用シャッタを挿入して補正を行う通常の補正方式と、前述のデフォーカスキャリブレーションの2方式が代表的であるが、補正はできるだけ撮像対象に近い輝度で行うのが好ましいため、輝度が均一に近い景色を得られるならばデフォーカスキャリブレーションが優れている。ところが、均一に近い輝度の景色が得られる方向は状況によって異なり、そのような景色を人間が探して その方向に撮像装置を向けて補正を行わなければならない場合、▲1▼操作者が必要である、▲2▼撮像装置が正しく均一輝度と思われる方向を向いたかどうかを操作者がリアルタイムに確認するための表示装置が必要となる。そのため、例えば撮像装置が監視装置のような場合であっても装置を完全に自動化できず、また補正操作者用の表示装置の分だけ大型化するという問題があった。
【0005】
また、デフォーカスキャリブレーションによって補正を行う場合、均一に近い輝度の景色がどうしても得られない場合には、レンズのピントをぼかしても景色の輝度変化が残り、これを基準に補正処理を行うと、補正後の画像に補正時の景色の残像があたかも焼き付きをおこしたかのように残ってしまうという問題があった。
【0006】
この発明は、上記のような問題を解消するためになされたもので、良好な景色の選択及び補正方法の選択により、自動的に適切な補正を行うことを目的とする。
【0007】
【課題を解決するための手段】
この発明に係る撮像補正装置は、画像信号の均一性を分析する画像処理器と、前記画像処理器の出力から補正タイミング信号を出力する主制御器と、前記補正タイミング信号により前記画像信号のばらつきを補正する補正処理器と、を備えるものである。
【0008】
また、この発明に係わる撮像装置は、ピント調節機構を有する光学的結像器と、前記光学的結像器によって結像された像を電気信号に変換する検知器と、前記光学的結像器の受光方向を変化させる可動架台と、前記検知器の信号のばらつきを補正する補正処理器と、前記補正処理器の出力信号の均一性を分析する画像処理器と、前記画像処理器の分析結果から前記可動架台、前記光学的結像器、前記補正処理器を制御する主制御器と、を備えるものである。
【0009】
【発明の実施の形態】
実施の形態1.
図1は、この発明の実施の形態1を示す構成図である。
1は入射光、2は光学的結像器、3は光学的結像器2によって結像された像を光電変換する検知器、4は検知器3が出力する粗画像信号、5は光学的結像器2および検知器3を搭載する可動架台、6は粗画像信号4を補正するための補正処理器、7は補正処理器6の補正処理で必要となる検知器3の素子の補正用データを納めたデータベース、8は補正処理器6が出力する画像信号、9は画像信号8の画像としての特徴を分析する画像処理器、10は画像処理器9が出力する画像分析結果、11は主制御器、12は可動架台5を動かして所望の撮像方向を得るための視軸方向指令、13は光学的結像器2の合焦状態を制御するためのピント量指令、14は補正処理器6に補正用の基準画像を取得させるためのデータベース更新指令である。
【0010】
通常の撮像時には、入射光1は光学的結像器2によって検知器3上に焦点を結ぶ。検知器3は面状に並べられた複数の光電変換素子を有し、光電変換素子上に結像した像を電気信号に変換する。検知器の構造によっては、光電変換素子を直線状に並べたものもあるが、その場合には結像された像をスキャンさせる機構を用いることにより面状に光電変換素子を並べた場合と同様の効果を得ることができる。
【0011】
いずれの方法にせよ、複数の光電変換素子の電気信号を一定の順序で出力することで検知器3は粗画像信号4を出力する。通常、複数の光電変換素子はそれぞれの特性がわずかに異なっているため、同じ光子数を光電変換素子面上に受けても、同じ強度の電気信号にならない。また、光学的結像器2の性能により結像面上の明るさが異なったり、特に撮像対象波長帯が赤外線の場合には装置各部分の赤外線放射による影響で結像面上に輝度差を作り出してしまう。そのため、粗画像信号4には必ずノイズが混入する。特に高感度で撮像する場合にはノイズが顕著になる。
【0012】
そこで、データベース7を用いて粗画像信号4を補正処理器6により適宜修正し、画像信号8を得る。データベース7は、均一な景色を撮像した場合に粗画像信号4がフラットになるように補正処理器6が各光電変換素子の信号を補正するためのパラメータデータベースである。
各光電変換素子の特性は時間経過によって変動したり、電源のON/OFFにより変化することがあるため、データベース7は電源投入時、動作中の一定時間経過後、あるいは画像信号8が劣化した場合に更新する必要がある。その際に必要となるのは均一な景色であり、この均一な景色を撮像した状態で主制御器11から補正処理器6にデータベース更新指令14を送ることで補正処理器6が基準となるデータを基に補正パラメータを計算し、データベース7を更新して補正が完了する。
【0013】
一般に、真に均一な景色というものは通常の景色の中にはなかなかない。均一に近い景色としては、雲の無い空、あるいは雲で覆われている空、海、アスファルトの路面、壁などがあるが、雲のない空を除けば細かい模様があり、均一とは言えない。そこで、補正処理器6にデータベース更新指令14を送る前に主制御器11から光学的結像器2にピント量指令13を送り、ピントを目一杯ぼかして細かい模様を消すことで均一な景色を得る。このようにピントをぼかすことを「デフォーカス」といい、これによって補正を行う方法をデフォーカスキャリブレーションと言う。
【0014】
しかし、デフォーカスしても大きな模様、言い換えれば空間周波数が小さい模様は消すことができない。そこで、この実施の形態が持つ従来の技術にはなかった特徴的な機構として、デフォーカスキャリブレーションを開始する前に以下の動作を行う。すなわち、主制御器11から可動架台5に視軸方向指令12を送り、これによって可動架台5を撮像の対象としている領域内、その周囲、あるいは可動架台5が動く領域内をスキャンするように隈なく動かすことで撮像方向を変化させる。次いで、その間に得られる画像信号8を画像処理器9によって分析して画像信号内の低空間周波数成分の大きさを計る。低空間周波数成分の大きさは、まず一定領域の画像信号を平均化することで単純なローパスフィルタをかけ、高空間周波数成分がなくなった画像信号の分散値を計算することで求めることができる。そして、これが一定値を下回り次第、その方向へ撮像方向を向けることにより、最適な補正用の景色を得る。あるいは、全領域を撮像後にこの値が極小となる方向へ撮像方向を向ける場合もある。
【0015】
このようにすることで、単純にデフォーカスキャリブレーションする場合よりもデフォーカス後の補正用景色の均一性が増し、補正後の画像における補正用景色の残像の影響を少なくすることができる。
【0016】
ここで、画像信号の低空間周波数成分の大きさについては、例えばあらかじめ設定されたしきい値周波数以下の空間周波数において高速フーリエ変換し、これによって得られる信号強度を周波数に対して積分することで得ることができる。
【0017】
このように画像均一性の分析に空間周波数を用いることで、高空間周波成分の影響をなくし、低空間周波数成分の量を正確に計ることができる。また、一般的にフーリエ変換を用いる画像処理は多いが、このような場合にフーリエ変換部の処理を共有することで、全体の処理負荷を低減させることができる。
【0018】
なお、デフォーカスのかわりに可動架台5を高速に動かし手ブレ状態を作り出すことで、デフォーカスと同じ効果を得ることもできる。もちろん、デフォーカスと併用してもよく、この場合はボケを大きくする効果がある。
【0019】
また、最適な景色を探す方法については、例えば撮像装置が周期的に撮像方向を変えながら一定のエリアを撮影するような用途の場合には、その周期動作の中であらかじめ補正に最適な景色を探しておくことができる。その他、補正のためだけに計画的に撮像方向を変えて補正に最適な景色を探すような撮像装置の場合は、ピントをぼかしたまま撮像方向を変化させることで、画像処理器9における低空間周波数成分の抽出機能を削減することができる。これはピントをぼかすこと自体が低空間周波数成分の抽出と等価だからである。これによりコスト削減及び小型化を実現できる。
【0020】
また、画像処理器9による画像信号内の空間周波数の分析において、いくつかの周波数帯域において信号強度を得て、この信号強度が一定の大きさを超える周波数を求め、それ以上の周波数帯域がぼけるようにあらかじめピント量指令13を光学的結像器2に送るようにすることで、晴天の空のように景色の均一性が高い場合には光学的結像器2のピントぼかし量が小さくなるか、あるいはピントをぼかさない状態で補正を行うことができる。ピントを大きくぼかすと像面比照度が変化したり、撮像対象波長帯が赤外線の場合は、シェーディングと呼ばれる鏡筒からの赤外線放射の回り込み量が変化し、これらは補正用の基準データ取得においてはマイナス効果となるが、上記のようにピントぼかし量を最適調整することで、このマイナス効果を低減できる。
【0021】
また、撮像画像がカラー画像の場合、単色あるいは2色のみからなる景色ではたとえ低空間周波数成分が小さくても補正用画像として使うことができない。そこで、画像処理器9にて各色の強度を計れるようにすることで、低空間周波数成分の大きさのみならず補正に適した色を持つ景色を選択することができる。
【0022】
実施の形態2.
図2は、この発明の実施の形態2を示す構成図である。
15はシャッタ、16はシャッタ15を光学的結像器2の前に挿抜するためのシャッタ開閉指令である。
図2に示すように、実施の形態1に対してシャッタ15を加えたものであり、画像処理器9によって得られる画像信号8の低空間周波数成分の大きさが一定の大きさ以下にならない場合、デフォーカスキャリブレーションでは良好な補正が行えないと考えられるため、主制御器11からシャッタ15にシャッタ開閉指令16を送り、シャッタを挿入して補正を行う。
この場合はピントのぼかしは行わなくてもよい。
【0023】
なお、シャッタ15は、すりガラスのような半透明の板でもよいし、撮像対象波長帯が赤外線の場合は一定の温度にコントロールされた黒体板でもよい。また、シャッタは光学的結像器2内の光学経路途中や、光学的結像器2と検知器3との間に挿入できるようにしてもよい。
シャッタとして半透明の板を使った場合、撮像対象となる景色の明るさを反映するため、デフォーカスキャリブレーションに近い良好な効果を得ることができる。
【0024】
このようにすることで、周囲の景色環境に関わらず補正を行うことができ、定期的に補正を行う必要がある場合、不適当な補正用景色でむりやり補正してしまうことがなくなる。
【0025】
実施の形態3.
図3は、この発明の実施の形態3を示す構成図である。
17は高度計、18は高度計17が出力する高度情報、19は姿勢角度計、20は姿勢角度計19が出力する姿勢角度情報、21は撮像装置の位置を計測する位置測定器、22は位置測定器21が出力する位置情報、23は地図データベース、24は地図データベース23が出力する地図情報、25は時計、26は時計25が出力する時刻日付情報である。
実施の形態3は主として航空機のような、移動するプラットフォームに取り付けられた撮像装置に関する実施の形態1の展開であり、補正に適した景色を得るための所要時間を短くするためのものである。主制御器11は、高度情報18、姿勢角度情報20、位置情報22、地図情報24に基づき、補正に適した景色を得るための撮像方向捜索パターンを決定する。
【0026】
具体的には、高度情報18によって得られる自身の高度が一定高度以上であった場合、主制御器11において姿勢角度情報20から得られる自身の姿勢角度を用いて天頂方向へ撮像方向を向けるための可動架台5の設定角度を計算し、撮像方向を可動範囲内でできるだけ天頂に近い高仰角から低仰角へ向かって移動させ、画像分析結果10が示す画像信号8内の低空間周波数成分の大きさが一定以下になったところで直ちにデフォーカスキャリブレーションを実施するものである。
【0027】
このようにすることで、補正に適した景色を高速に見つけることができる。これは、通常 高高度では水平線から天頂にかけては雲のない空が得られる可能性が極めて高いためであり、ほとんどの場合、最初のワンショットで補正に適した景色を得ることができる。なお、姿勢角度情報20は東西南北基準で自身が向いている方向(これを方位角という)を含み、この情報と時刻日付情報26から自分に対する太陽方向を計算することができるため、撮像方向がこの方向を向かないようにする。
【0028】
同じく、位置情報22によって得られる自身の位置が、地図情報24と比較して海上と判断される場合、あるいは時刻日付情報26と併せて比較して雪上、氷上と判断される場合には、姿勢角度情報20から得られる自身の姿勢角度を用いて撮像方向を雪上あるいは氷上方向へ向けるための可動架台5の設定角度を計算し、撮像方向を可動範囲内で直下方向にできるだけ近い低仰角から高仰角へ向かって移動させ、画像分析結果10が示す画像信号8内の低空間周波数成分の大きさが一定以下になったところで直ちにデフォーカスキャリブレーションを実施するものである。
【0029】
このようにすることで、補正に適した景色を高速に見つけることができる。これは、通常 海面や雪上は画像における低空間周波数成分の大きさが小さくデフォーカスさせることにより補正に適した景色を得られる可能性が高いからである。なお、姿勢角度情報20と時刻日付情報26から自分に対する太陽方向を計算することができるため、撮像方向の方位角がこの方向を向かないようにする。これは、海面や雪上では太陽光の反射が激しく、低仰角から水平線へ向かって帯状に高輝度となるためであり、この方向では正しく補正が行えないからである。
【0030】
もちろん、上記の高度による撮像方向捜索パターンと、位置と時間による撮像方向捜索パターンを組み合わせて使用することもできる。両方の条件に適合する場合は、撮像装置が本来の目的のために撮像する方向が可動架台5の設定角度及び姿勢角度情報20から計算して、水平線より上の場合は高度による撮像方向捜索パターンを優先選択し、逆に水平線より下の場合は位置と時間による撮像方向捜索パターンを優先選択する。これは、実際に撮像する領域に近い輝度で補正を行った方が良好な補正が行えるためである。
【0031】
実施の形態4.
図4は、この発明の実施の形態4を示す構成図である。
27は可動架台5と補正処理器6の動作を同調させる同調器、28は補正開始信号、29は可動架台5の指向方向を表す角度情報、30は段階的に補正処理を行う際のタイミング信号である。
同調器27は補正開始信号28を受けて処理を開始し、角度情報29から求められる可動架台5が一定角度動く毎にタイミング信号30を出力する。補正処理器6はタイミング信号30を受ける毎に、画像信号8の一部分を記録していく。
【0032】
図5は実施の形態4における装置の動作を説明するものである。
31はある時点における画像であり、周辺の景色の中でもっとも低空間周波数成分が小さい撮像方向の画像である。32は雲であり、画像31は低空間周波数成分が極小となる撮像方向の画像ながらこの雲を含んでしまっているために低空間周波数成分が一定値以下に下がらず、補正にとって質の良い画像となっていない。33は角度ステップ、34は画像31の時より撮像方向が左側に角度ステップ33分だけ移動した時点での次画像、35は次画像34の時より撮像方向が左側にさらに角度ステップ33分だけ移動した時点での次々画像、36は補正処理器6の内部で作られる補正用画像、37は画像31の一部分であり、タイミング信号30によって補正用画像36の一部としてキャプチャされ、角度ステップ33に相当する幅を持つ領域A、38は次画像34の一部分であり、タイミング信号30によって補正用画像36の一部としてキャプチャされ、角度ステップ33に相当する幅を持つ領域B、39は次々画像35の一部分であり、タイミング信号30によって補正用画像36の一部としてキャプチャされ、角度ステップ33に相当する幅を持つ領域C、40は補正用画像36の横方向を構成する一列の画素の並びである領域Dである。
【0033】
補正処理器6は上記のように、可動架台5が左側に一定角度動く毎に同調器27が出力するタイミング信号30によって領域A37、領域B38、領域C39といった具合に次々とキャプチャし、最終的に補正用画像36を内部に生成する。図5では補正用画像36は特に下側がギザギザしているが、充分にデフォーカスし、角度ステップ33設定値を調整することで、実態としてはギザギザのない、横線のみから成る画像となる。例えば領域D40は横一列の画素の並びからなる領域であり、この列の信号は図6に示すようになる。41は上記方法によって画像を生成した場合に本来得られるべき理想的信号、42は実信号である。すなわち、実信号42がフラットになるように補正すれば良く、これにより横方向について全ラインの補正用データベースを作成することができる。次のステップとして、今度は角度ステップを縦にとって同様の処理を行えば縦方向についても補正を行うことができる。結果、全画面について補正が行えることになる。
【0034】
このような方法により、補正に適した均一な景色を得られない場合についても補正を行うことが可能になる。
【0035】
なお、角度ステップ33を細かくとり、横方向1画素分相当にすることで、補正用画像36を得る時間はかかるものの、デフォーカスしなくても補正を行うことができる。
【0036】
【発明の効果】
この発明は以上説明したように、デフォーカスキャリブレーションを行う前に低空間周波数成分の小さい景色を捜索することにより、均一性のない画像を用いた補正を防止することができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による撮像補正装置の構成を示す構成図である。
【図2】 この発明の実施の形態2による撮像補正装置の構成を示す構成図である。
【図3】 この発明の実施の形態3による撮像補正装置の構成を示す構成図である。
【図4】 この発明の実施の形態4による撮像補正装置の構成を示す構成図である。
【図5】 この発明の実施の形態4による撮像補正装置における補正用画像の生成方法を説明する図である。
【図6】 この発明の実施の形態4による撮像補正装置における補正用画像の横一列の画素信号強度を説明する図である。
【符号の説明】
1 入射光
2 光学的結像器
3 検知器
4 粗画像信号
5 可動架台
6 補正処理器
7 データベース
8 画像信号
9 画像処理器
10 画像分析結果
11 主制御器
12 視軸方向指令
13 ピント量指令
14 データベース更新指令
15 シャッタ
16 シャッタ開閉指令
17 高度計
18 高度情報
19 姿勢角度計
20 姿勢角度情報
21 位置測定器
22 位置情報
23 地図データベース
24 地図情報
25 時計
26 時刻日付情報
27 同調器
28 補正開始信号
29 角度情報
30 タイミング信号
31 画像
32 雲
33 角度ステップ
34 次画像
35 次々画像
36 補正用画像
37 領域A
38 領域B
39 領域C
40 領域D
41 理想的信号
42 実信号
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging correction apparatus and an imaging apparatus.
[0002]
[Prior art]
The conventional imaging correction device has a normal correction method in which correction is performed by inserting an image correction shutter in front of the lens at the time of correction, and the visual axis is directed to something that seems to have uniform brightness (for example, “sky”). There is a method called “defocus calibration” in which correction is performed in a state where the focus of the lens is blurred. (For example, see Patent Document 1)
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-142065 (Prior Art, Paragraph 6)
[0004]
[Problems to be solved by the invention]
As a conventional technique, a normal correction method in which correction is performed by inserting an image correction shutter and the above-described defocus calibration method are representative, but correction is performed with luminance as close to the imaging target as possible. Therefore, defocus calibration is excellent if a scene with almost uniform luminance can be obtained. However, the direction in which a scene with almost uniform brightness can be obtained differs depending on the situation. When a person must search for such a scene and make corrections by pointing the imaging device in that direction, an operator is required. (2) A display device is required for the operator to check in real time whether or not the imaging device is correctly oriented in a direction that seems to have uniform luminance. For this reason, for example, even when the imaging device is a monitoring device, the device cannot be completely automated, and there is a problem that the display device for the correction operator is increased in size.
[0005]
Also, when correcting by defocus calibration, if a scene with almost uniform brightness is not always obtained, the brightness change of the scene remains even if the lens focus is blurred, and correction processing is performed based on this There is a problem that the afterimage of the scenery at the time of correction remains as if burned in the corrected image.
[0006]
The present invention has been made to solve the above problems, and an object thereof is to automatically perform appropriate correction by selecting a good scenery and selecting a correction method.
[0007]
[Means for Solving the Problems]
An imaging correction apparatus according to the present invention includes an image processor that analyzes uniformity of an image signal, a main controller that outputs a correction timing signal from the output of the image processor, and variations in the image signal due to the correction timing signal. And a correction processor for correcting.
[0008]
An imaging apparatus according to the present invention includes an optical imager having a focus adjustment mechanism, a detector that converts an image formed by the optical imager into an electric signal, and the optical imager. A movable gantry that changes the light receiving direction, a correction processor that corrects variations in the signal of the detector, an image processor that analyzes the uniformity of the output signal of the correction processor, and an analysis result of the image processor To the movable gantry, the optical imager, and a main controller for controlling the correction processor.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1.
1 is a block diagram showing Embodiment 1 of the present invention.
1 is incident light, 2 is an optical imager, 3 is a detector that photoelectrically converts an image formed by the optical imager 2, 4 is a coarse image signal output by the detector 3, and 5 is optical. A movable frame on which the image forming device 2 and the detector 3 are mounted, 6 is a correction processor for correcting the coarse image signal 4, and 7 is a device for correcting the elements of the detector 3 necessary for the correction processing of the correction processor 6. A database storing data, 8 is an image signal output from the correction processor 6, 9 is an image processor for analyzing the characteristics of the image signal 8 as an image, 10 is an image analysis result output from the image processor 9, and 11 is The main controller 12 is a visual axis direction command for moving the movable frame 5 to obtain a desired imaging direction, 13 is a focus amount command for controlling the focusing state of the optical imager 2, and 14 is a correction process. This is a database update command for causing the device 6 to acquire a reference image for correction.
[0010]
During normal imaging, the incident light 1 is focused on the detector 3 by the optical imager 2. The detector 3 has a plurality of photoelectric conversion elements arranged in a plane, and converts an image formed on the photoelectric conversion elements into an electrical signal. Depending on the structure of the detector, some photoelectric conversion elements are arranged in a straight line, but in that case, it is the same as the case where photoelectric conversion elements are arranged in a plane by using a mechanism that scans the formed image. The effect of can be obtained.
[0011]
In any method, the detector 3 outputs the coarse image signal 4 by outputting the electrical signals of the plurality of photoelectric conversion elements in a certain order. Usually, since the characteristics of the plurality of photoelectric conversion elements are slightly different from each other, even if the same number of photons is received on the surface of the photoelectric conversion element, electric signals having the same intensity are not obtained. In addition, the brightness on the imaging surface varies depending on the performance of the optical imager 2, and in particular when the imaging target wavelength band is infrared, the brightness difference on the imaging surface is affected by the influence of infrared radiation of each part of the apparatus. I will create it. Therefore, noise is always mixed in the coarse image signal 4. In particular, when imaging with high sensitivity, noise becomes significant.
[0012]
Therefore, the coarse image signal 4 is appropriately corrected by the correction processor 6 using the database 7 to obtain the image signal 8. The database 7 is a parameter database for the correction processor 6 to correct the signal of each photoelectric conversion element so that the coarse image signal 4 becomes flat when a uniform landscape is captured.
Since the characteristics of each photoelectric conversion element may change with the passage of time or may change with the turning on / off of the power supply, the database 7 is turned on, after a certain time during operation, or when the image signal 8 is deteriorated. Need to be updated. In this case, a uniform landscape is required, and the correction processor 6 becomes a reference data by sending a database update command 14 from the main controller 11 to the correction processor 6 in a state where the uniform landscape is imaged. The correction parameters are calculated based on the above, and the database 7 is updated to complete the correction.
[0013]
In general, a truly uniform landscape is hard to find in a normal landscape. Nearly uniform scenery includes the sky without clouds, or the sky covered with clouds, the sea, asphalt roads, walls, etc., but there are fine patterns except for the sky without clouds, which is not uniform. . Therefore, before sending the database update command 14 to the correction processor 6, a focus amount command 13 is sent from the main controller 11 to the optical image forming device 2, and the uniform image is erased by blurring the focus to the fullest extent. obtain. Such defocusing is called “defocusing”, and a method of performing correction by this is called defocusing calibration.
[0014]
However, even after defocusing, a large pattern, in other words, a pattern with a low spatial frequency cannot be erased. Therefore, as a characteristic mechanism that was not found in the prior art of this embodiment, the following operation is performed before defocus calibration is started. That is, the visual axis direction command 12 is sent from the main controller 11 to the movable gantry 5 so that the movable gantry 5 is scanned within the area where the movable gantry 5 is to be imaged, the periphery thereof, or the area where the movable gantry 5 moves. The image capturing direction is changed by moving the image without moving. Next, the image signal 8 obtained in the meantime is analyzed by the image processor 9 to measure the magnitude of the low spatial frequency component in the image signal. The magnitude of the low spatial frequency component can be obtained by first calculating a variance value of the image signal from which the high spatial frequency component disappears by applying a simple low-pass filter by averaging the image signal in a certain region. Then, as soon as it falls below a certain value, the image capturing direction is directed to that direction, thereby obtaining an optimal scene for correction. Alternatively, there is a case where the imaging direction is directed to a direction in which this value becomes minimum after imaging the entire region.
[0015]
By doing so, the uniformity of the correction scenery after defocusing can be increased and the influence of the afterimage of the correction scenery in the corrected image can be reduced as compared with the case where the defocus calibration is simply performed.
[0016]
Here, for the magnitude of the low spatial frequency component of the image signal, for example, fast Fourier transform is performed at a spatial frequency equal to or lower than a preset threshold frequency, and the signal intensity obtained thereby is integrated with respect to the frequency. Obtainable.
[0017]
Thus, by using the spatial frequency for the analysis of the image uniformity, the influence of the high spatial frequency component can be eliminated and the amount of the low spatial frequency component can be accurately measured. In general, there are many image processes using Fourier transform. In such a case, the entire processing load can be reduced by sharing the process of the Fourier transform unit.
[0018]
The same effect as defocusing can be obtained by moving the movable gantry 5 at high speed instead of defocusing to create a camera shake state. Of course, it may be used together with defocus, and in this case, there is an effect of increasing blur.
[0019]
As for a method for searching for an optimal scenery, for example, in the case where the imaging device captures a certain area while periodically changing the imaging direction, an optimal scenery for correction is preliminarily determined in the periodic operation. You can look for it. In addition, in the case of an imaging device that changes the imaging direction systematically only for correction and searches for an optimal scene for correction, the imaging processor 9 can change the imaging direction while keeping the focus blurred. The frequency component extraction function can be reduced. This is because the blurring itself is equivalent to the extraction of low spatial frequency components. Thereby, cost reduction and size reduction can be realized.
[0020]
Further, in the analysis of the spatial frequency in the image signal by the image processor 9, signal strength is obtained in several frequency bands, a frequency where the signal strength exceeds a certain magnitude is obtained, and the frequency band beyond that is blurred. In this way, by sending the focus amount command 13 to the optical imager 2 in advance, the focus blurring amount of the optical imager 2 becomes smaller when the uniformity of the scenery is high, such as in a clear sky. Alternatively, correction can be performed without blurring. When the focus is greatly blurred, the image plane specific illuminance changes, or when the imaging target wavelength band is infrared, the amount of irradiating infrared radiation from the lens barrel called shading changes. Although this is a negative effect, the negative effect can be reduced by optimally adjusting the focus blur amount as described above.
[0021]
In addition, when the captured image is a color image, it cannot be used as a correction image even in a low-spatial frequency component in a landscape composed of only one color or only two colors. Thus, by allowing the image processor 9 to measure the intensity of each color, it is possible to select a landscape having a color suitable for correction as well as the magnitude of the low spatial frequency component.
[0022]
Embodiment 2.
FIG. 2 is a block diagram showing Embodiment 2 of the present invention.
Reference numeral 15 denotes a shutter. Reference numeral 16 denotes a shutter opening / closing command for inserting and removing the shutter 15 in front of the optical imager 2.
As shown in FIG. 2, the shutter 15 is added to the first embodiment, and the magnitude of the low spatial frequency component of the image signal 8 obtained by the image processor 9 is not less than a certain magnitude. Since it is considered that good correction cannot be performed in the defocus calibration, the main controller 11 sends a shutter open / close command 16 to the shutter 15 to insert the shutter for correction.
In this case, the focus may not be blurred.
[0023]
The shutter 15 may be a translucent plate such as frosted glass, or may be a black body plate controlled at a constant temperature when the imaging target wavelength band is infrared. The shutter may be inserted in the middle of the optical path in the optical imager 2 or between the optical imager 2 and the detector 3.
When a semi-transparent plate is used as the shutter, the brightness of the scene to be imaged is reflected, so that a good effect close to defocus calibration can be obtained.
[0024]
In this way, correction can be performed regardless of the surrounding scenery environment, and if correction is required periodically, correction is not made with an inappropriate correction landscape.
[0025]
Embodiment 3.
FIG. 3 is a block diagram showing Embodiment 3 of the present invention.
17 is an altimeter, 18 is altitude information output by the altimeter 17, 19 is an attitude angle meter, 20 is attitude angle information output by the attitude angle meter 19, 21 is a position measuring device that measures the position of the imaging device, and 22 is position measurement The position information output by the device 21, 23 is a map database, 24 is map information output by the map database 23, 25 is a clock, and 26 is time / date information output by the clock 25.
The third embodiment is a development of the first embodiment relating to an imaging apparatus attached to a moving platform, such as an aircraft, and is intended to shorten the time required to obtain a scene suitable for correction. The main controller 11 determines an imaging direction search pattern for obtaining a scene suitable for correction based on the altitude information 18, the attitude angle information 20, the position information 22, and the map information 24.
[0026]
Specifically, when the altitude obtained by the altitude information 18 is equal to or higher than a certain altitude, the main controller 11 uses the attitude angle obtained from the attitude angle information 20 to direct the imaging direction toward the zenith direction. The setting angle of the movable gantry 5 is calculated, the imaging direction is moved from the high elevation angle as close to the zenith as possible within the movable range to the low elevation angle, and the magnitude of the low spatial frequency component in the image signal 8 indicated by the image analysis result 10 is calculated. The defocus calibration is performed immediately when the value becomes below a certain level.
[0027]
In this way, a scene suitable for correction can be found at high speed. This is because, at high altitudes, it is very likely that a cloudless sky will be obtained from the horizon to the zenith, and in most cases, a scene suitable for correction can be obtained with the first one shot. Note that the attitude angle information 20 includes the direction in which it is facing on an east-west-north-north-north basis (this is referred to as an azimuth angle), and the sun direction relative to itself can be calculated from this information and the time-date information 26. Do not face this direction.
[0028]
Similarly, if it is determined that the position obtained by the position information 22 is maritime compared with the map information 24, or if it is determined that it is on the snow or ice compared with the time date information 26, the attitude The set angle of the movable base 5 for directing the imaging direction to the snow or ice direction is calculated using its own posture angle obtained from the angle information 20, and the imaging direction is set within a movable range from a low elevation angle that is as close as possible to the direct downward direction. The defocus calibration is performed immediately when the magnitude of the low spatial frequency component in the image signal 8 indicated by the image analysis result 10 becomes equal to or less than a certain level.
[0029]
In this way, a scene suitable for correction can be found at high speed. This is because a low-spatial frequency component in the image is usually small on the surface of the sea or on the snow, and it is highly likely that a scene suitable for correction can be obtained. In addition, since the sun direction with respect to oneself can be calculated from the attitude angle information 20 and the time date information 26, the azimuth angle of the imaging direction is prevented from being directed in this direction. This is because sunlight is reflected strongly on the sea surface or on snow, and the brightness increases in a band shape from a low elevation angle toward the horizon, and correct correction cannot be performed in this direction.
[0030]
Of course, the above-described imaging direction search pattern based on altitude and the imaging direction search pattern based on position and time can also be used in combination. When both conditions are met, the direction in which the imaging device captures the image for the original purpose is calculated from the set angle and attitude angle information 20 of the movable gantry 5, and if it is above the horizon, the imaging direction search pattern by altitude If the position is below the horizon, the image direction search pattern based on position and time is preferentially selected. This is because a better correction can be made by performing correction at a luminance close to the area where the image is actually captured.
[0031]
Embodiment 4.
FIG. 4 is a block diagram showing Embodiment 4 of the present invention.
27 is a tuner that synchronizes the operations of the movable gantry 5 and the correction processor 6, 28 is a correction start signal, 29 is angle information indicating the directivity direction of the movable gantry 5, and 30 is a timing signal when performing correction processing step by step. It is.
The tuner 27 receives the correction start signal 28 and starts processing, and outputs a timing signal 30 every time the movable gantry 5 obtained from the angle information 29 moves by a certain angle. Each time the correction processor 6 receives the timing signal 30, it records a part of the image signal 8.
[0032]
FIG. 5 explains the operation of the apparatus in the fourth embodiment.
Reference numeral 31 denotes an image at a certain point in time, which is an image in the imaging direction with the smallest low spatial frequency component in the surrounding scenery. Reference numeral 32 denotes a cloud, and the image 31 includes an image in the imaging direction in which the low spatial frequency component is minimized. However, since the image 31 includes this cloud, the low spatial frequency component does not fall below a certain value, and the image has good quality for correction. It is not. 33 is the angle step, 34 is the next image when the imaging direction has moved to the left by the angle step 33 from the time of the image 31, and 35 is the imaging direction further moved to the left by the angle step 33 from the time of the next image 34. One after another at the time, 36 is a correction image created inside the correction processor 6, 37 is a part of the image 31, and is captured as a part of the correction image 36 by the timing signal 30, and is sent to the angle step 33. Regions A and 38 having a corresponding width are a part of the next image 34, captured as a part of the correction image 36 by the timing signal 30, and regions B and 39 having a width corresponding to the angle step 33 are the images 35 one after another. A region that is captured as a part of the correction image 36 by the timing signal 30 and has a width corresponding to the angle step 33 40 is a region D is a sequence of one row of pixels constituting the horizontal correction image 36.
[0033]
As described above, the correction processor 6 sequentially captures the region A37, the region B38, the region C39, etc. one after another by the timing signal 30 output from the tuner 27 every time the movable mount 5 moves to the left by a certain angle, and finally A correction image 36 is generated inside. In FIG. 5, the correction image 36 is particularly jagged on the lower side, but by defocusing sufficiently and adjusting the setting value of the angle step 33, the actual image becomes an image consisting only of horizontal lines without jaggedness. For example, the region D40 is a region composed of an array of pixels in a horizontal row, and the signals in this column are as shown in FIG. 41 is an ideal signal that should be originally obtained when an image is generated by the above method, and 42 is an actual signal. That is, it is only necessary to correct the actual signal 42 so as to be flat, whereby a correction database for all lines in the horizontal direction can be created. As the next step, if the same processing is performed with the angle step set to the vertical, the vertical direction can be corrected. As a result, the entire screen can be corrected.
[0034]
Such a method makes it possible to perform correction even when a uniform landscape suitable for correction cannot be obtained.
[0035]
Note that, by taking the angle step 33 finely and corresponding to one pixel in the horizontal direction, although it takes time to obtain the correction image 36, correction can be performed without defocusing.
[0036]
【The invention's effect】
As described above, according to the present invention, it is possible to prevent correction using an image having no uniformity by searching for a scene having a small low spatial frequency component before performing defocus calibration.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a configuration of an imaging correction apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a block diagram showing a configuration of an imaging correction apparatus according to Embodiment 2 of the present invention.
FIG. 3 is a block diagram showing a configuration of an imaging correction apparatus according to Embodiment 3 of the present invention.
FIG. 4 is a configuration diagram showing the configuration of an imaging correction apparatus according to Embodiment 4 of the present invention.
FIG. 5 is a diagram for explaining a correction image generation method in an imaging correction apparatus according to Embodiment 4 of the present invention;
FIG. 6 is a view for explaining pixel signal strengths in a horizontal row of a correction image in an imaging correction apparatus according to Embodiment 4 of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Incident light 2 Optical imager 3 Detector 4 Coarse image signal 5 Movable mount 6 Correction processor 7 Database 8 Image signal 9 Image processor 10 Image analysis result 11 Main controller 12 Visual axis direction command 13 Focus amount command 14 Database update command 15 Shutter 16 Shutter opening / closing command 17 Altimeter 18 Altitude information 19 Attitude angle meter 20 Attitude angle information 21 Position measuring device 22 Position information 23 Map database 24 Map information 25 Clock 26 Time date information 27 Tuner 28 Correction start signal 29 Angle Information 30 Timing signal 31 Image 32 Cloud 33 Angle step 34 Next image 35 Next image 36 Correction image 37 Region A
38 Area B
39 Area C
40 Area D
41 Ideal signal 42 Real signal

Claims (10)

外部から入射される光を電気信号に変換し、粗画像信号を出力する検知器と、A detector that converts light incident from the outside into an electrical signal and outputs a coarse image signal;
前記検知器から出力された粗画像信号を、補正用データを用いて補正し、画像信号を出力する補正処理器と、A correction processor for correcting the coarse image signal output from the detector using correction data and outputting an image signal;
前記補正処理器から出力された画像信号の空間周波数を用いて画像の輝度の均一性を分析し、画像分析結果を出力する画像処理器と、An image processor that analyzes the luminance uniformity of the image using the spatial frequency of the image signal output from the correction processor, and outputs an image analysis result;
前記画像処理器より出力された画像分析結果に基づいて、前記補正用データの更新指令を出力する主制御器と、Based on the image analysis result output from the image processor, a main controller that outputs an update command for the correction data;
を備える撮像補正装置であって、An imaging correction apparatus comprising:
前記補正処理器は、前記主制御器より出力される更新指令を受信した場合、前記補正用データを取り込んだ輝度の均一な画像データに更新するとともに、前記補正用データを用いて粗画像信号を補正するWhen the correction processor receives an update command output from the main controller, the correction processor updates the correction data to image data having a uniform brightness and takes in the coarse image signal using the correction data. to correct
ことを特徴とする撮像補正装置。An imaging correction apparatus characterized by the above.
前記空間周波数の分析に高速フーリエ変換を用いる請求項1に記載の撮像補正装置。The imaging correction apparatus according to claim 1, wherein fast Fourier transform is used for analysis of the spatial frequency. ピント調節機構を有する光学的結像器と、
前記光学的結像器によって結像された像を電気信号に変換する検知器と、
前記光学的結像器の受光方向を変化させる可動架台と、
前記検知器の信号のばらつきを補正する補正処理器と、
前記補正処理器の出力信号の均一性を分析する画像処理器と、
前記画像処理器の分析結果から均一な補正用データを取り込むため前記可動架台、前記光学的結像器、前記補正処理器を制御する主制御器と、を備える撮像装置。
An optical imager having a focus adjustment mechanism;
A detector that converts an image imaged by the optical imager into an electrical signal;
A movable frame for changing the light receiving direction of the optical imager;
A correction processor for correcting variations in the signal of the detector;
An image processor for analyzing the uniformity of the output signal of the correction processor;
An imaging apparatus comprising: the movable gantry, the optical imager, and a main controller that controls the correction processor to capture uniform correction data from the analysis result of the image processor.
前記均一性の分析に空間周波数を用いる請求項3に記載の撮像装置。The imaging apparatus according to claim 3, wherein a spatial frequency is used for the uniformity analysis. 前記空間周波数に応じて前記光学的結像器のぼかし量を調整する請求項4に記載の撮像装置。The imaging apparatus according to claim 4, wherein a blurring amount of the optical imager is adjusted according to the spatial frequency. ばらつき補正用シャッタを前記光学的結像器の前面に備える請求項3または請求項5に記載の撮像装置。The imaging apparatus according to claim 3, wherein a variation correction shutter is provided on a front surface of the optical imager. 均一性の高い景色を高確率で得られる方向を演算する均一性演算器を備える請求項3から請求項6に記載の撮像装置。The imaging apparatus according to claim 3, further comprising a uniformity calculator that calculates a direction in which a scene with high uniformity can be obtained with high probability. 前記均一性の高い背景を高確率で得られる方向を、高度、姿勢角、位置及び時間から演算する請求項7に記載の撮像装置。The imaging apparatus according to claim 7, wherein a direction in which the highly uniform background can be obtained with high probability is calculated from altitude, posture angle, position, and time. 地図データベースを備える請求項8に記載の撮像装置。The imaging device according to claim 8, further comprising a map database. 前記可動架台と前記補正処理器との動作を同調させる同調器を備える請求項3に記載の撮像装置。The imaging apparatus according to claim 3, further comprising a tuner that synchronizes operations of the movable base and the correction processor.
JP2003027958A 2003-02-05 2003-02-05 Imaging correction apparatus and imaging apparatus Expired - Fee Related JP4140394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003027958A JP4140394B2 (en) 2003-02-05 2003-02-05 Imaging correction apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003027958A JP4140394B2 (en) 2003-02-05 2003-02-05 Imaging correction apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2004241961A JP2004241961A (en) 2004-08-26
JP4140394B2 true JP4140394B2 (en) 2008-08-27

Family

ID=32955543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003027958A Expired - Fee Related JP4140394B2 (en) 2003-02-05 2003-02-05 Imaging correction apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP4140394B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010001409A1 (en) * 2010-01-12 2011-07-14 Robert Bosch GmbH, 70469 Calibration method of motion sensor in camera, involves determining motion signal of motion sensor, after determining picture signal of image socket module to calibrate motion sensor
JP2013118547A (en) * 2011-12-05 2013-06-13 Tamron Co Ltd Infrared camera

Also Published As

Publication number Publication date
JP2004241961A (en) 2004-08-26

Similar Documents

Publication Publication Date Title
US7480452B2 (en) System and method for image capturing
US7920182B2 (en) Digital camera with non-uniform image resolution
KR20030028553A (en) Method and apparatus for image mosaicing
WO2007095483A2 (en) Detection and removal of blemishes in digital images utilizing original images of defocused scenes
WO2003014796A1 (en) Adaptive imaging using digital light processing
WO2010031252A1 (en) Method for correcting lightness of electrical display screen
KR20120068655A (en) Method and camera device for capturing iris or subject of good quality with one bandpass filter passing both visible ray and near infra red ray
CN109974854B (en) Radiation correction method for frame-type FPI (field programmable Gate array) hyperspectral image
CN107995396B (en) Two camera modules and terminal
CN114666511B (en) Method and device for automatically obtaining optimal exposure value on tunable spectrum camera
US10887527B2 (en) Image capture apparatus having illumination section, monitoring system including image capture apparatus, method of controlling image capture apparatus, and storage medium
US10694091B2 (en) Imaging device with white balance compensation and related systems and methods
US20100316305A1 (en) System and method for estimating a direction of motion blur in an image
JP4140394B2 (en) Imaging correction apparatus and imaging apparatus
US11418719B2 (en) Dual sensor imaging system and calibration method which includes a color sensor and an infrared ray sensor to perform image alignment and brightness matching
KR101750050B1 (en) Photographing apparatus and photographing method
Li et al. Improving high dynamic range image based light measurement
CN110650331B (en) Array camera module testing method and target device thereof
JP2003259211A (en) Image processor and image processing method
JP2012085093A (en) Imaging device and acquisition method
TWI818715B (en) A method for visual inspection of curved objects
JP2020036091A (en) Imaging device and control method therefor, program, and storage medium
JPH0622207A (en) Image pickup device
KR101710627B1 (en) Photographing apparatus and photographing method
KR101950436B1 (en) Object detection device in middle wavelength infrared video

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees