JP2008067363A - 画像のミスレジストレーションを補正するシステム及び方法 - Google Patents

画像のミスレジストレーションを補正するシステム及び方法 Download PDF

Info

Publication number
JP2008067363A
JP2008067363A JP2007192044A JP2007192044A JP2008067363A JP 2008067363 A JP2008067363 A JP 2008067363A JP 2007192044 A JP2007192044 A JP 2007192044A JP 2007192044 A JP2007192044 A JP 2007192044A JP 2008067363 A JP2008067363 A JP 2008067363A
Authority
JP
Japan
Prior art keywords
image
output image
sensor
offset
platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007192044A
Other languages
English (en)
Other versions
JP4903645B2 (ja
Inventor
Tim K Trudeau
ケー.トルードー ティム
Jeff R Lynam
アール.レイナム ジェフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ITT Manufacturing Enterprises LLC
Original Assignee
ITT Manufacturing Enterprises LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ITT Manufacturing Enterprises LLC filed Critical ITT Manufacturing Enterprises LLC
Publication of JP2008067363A publication Critical patent/JP2008067363A/ja
Application granted granted Critical
Publication of JP4903645B2 publication Critical patent/JP4903645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)

Abstract

【課題】複数の画像センサ間の画像のミスレジストレーションを補正するシステム及び方法に関し、複数の画像センサから供給される画像を合成する際に複数の画像間で顕著な分離が生じないようにすることを目的とする。
【解決手段】プラットフォーム上に配設され、且つ、それぞれ、第1出力画像及び第2出力画像を供給するべく構成された第1画像センサ及び第2画像センサ120, 130と、プラットフォームの動きを検知するモーションセンサ110と、第1及び第2画像センサの第1処理遅延時間及び第2処理遅延時間に基づいて算出された第1及び第2画像センサ間の遅延時間のずれとモーションセンサにより検知されたプラットフォームの動きに基づいて、画像オフセットを算出するべく構成されたプロセッサ140と、画像オフセットに基づいて第1及び第2出力画像を融合するべく構成された画像融合部150とを有する。
【選択図】図1

Description

本発明は、概して、ビデオ画像の融合に関するものである。更に詳しくは、本発明は、複数の画像センサから供給される複数のビデオ画像間の画像のミスレジストレーションを補正して当該画像を融合するための画像融合システム及び方法に関するものである。
マルチセンサ画像のリアルタイム融合は、画像処理における重要且つ有望な領域である。複数のセンサを内蔵したシステムの一例が、ITT社の改良型暗視ゴーグル(Enhanced Night Vision Goggle)である(以下、「ENVG」と略記する)。ENVGは、光学的なオーバーレイ融合(overlay fusion)を使用することにより、サーマルカメラからのディジタル画像を一般の直視光増強管(direct-view light intensification tube)からの画像と融合する頭部装着型暗視マルチスペクトルシステムである。ENVGにおいては、サーマルセンサから供給されるビデオ画像が、LCDディスプレイ装置を介してディジタル的に提示され、ビームコンバイナ(beam combiner)を使用することにより、光増強管からの画像上に重ね合わされている(overlay)。
多くの融合アプリケーションは、センサが背景に対して相対的に動いているか又は背景内の物体がセンサに対して相対的に動いている動的な環境において、センサの対が動作することを必要としている。リアルタイム画像融合システムにおいては、ビデオチェーン内の複数のセンサ間に遅延時間の不一致(time lag disparity)が存在しており、この結果として、光子の入力から光子の出力(又は、電子の出力)までの時間がすべてのセンサについて同一ではない可能性が高い。例えば、ENVGにおいては、直視光増強管の出力とサーマルカメラの出力との間に遅延時間の不一致が存在している。
複数のセンサからのビデオ画像を合成する試みは、複数の入力システム間の遅延時間の不一致によって生じる画像のミスマッチ(mismatch)又はミスレジストレーション(misregistration)を結果的にもたらす。1つのセンサにおける不一致が、比較的高速であるセンサのビデオフレームレートに比べて大きく、且つ、背景内に動きが存在している場合には、常に、複数のビデオ画像間で顕著な分離が生じていることが観察者にとって明らかとなる。このような状況においては、一方のセンサが他方のセンサより遅れていることがわかる。画像のミスマッチの量は、センサの遅延時間の程度と、カメラの焦点面と背景内の物体との間の相対的な速度に直接的に依存している。
複数のビデオ画像センサから供給されるビデオ画像間の画像のミスマッチ又はミスレジストレーション(このミスマッチは、ビデオ画像センサ等の画像センサの動きとビデオ画像センサによって導入される遅延時間の不一致によって発生している)を補正するシステム及び方法に対するニーズが存在している。
本発明は上記問題点に鑑みてなされたものであり、複数の画像センサから供給される複数の画像を合成する際に複数の画像間で顕著な分離が生じないようにすることが可能な、画像のミスレジストレーションを補正するシステム及び方法を提供することを目的とするものである。
上記目的を達成するために、本発明の一実施態様は、少なくとも2つの画像センサの間の画像のミスレジストレーションを補正するシステムを提供する。本発明の一実施態様に係るシステムは、プラットフォーム上に配設され、且つ、それぞれ、第1出力画像及び第2出力画像を供給するべく構成された第1画像センサ及び第2画像センサを有している。さらに、本システムは、モーションセンサ及びプロセッサをも有している。モーションセンサは、プラットフォームの動きを検知し、プロセッサは、モーションセンサによって検知されたプラットフォームの動きに基づいて画像のオフセットを算出するべく構成されている。
本発明の他の実施態様は、少なくとも2つの画像センサ間の画像のミスレジストレーションを補正する方法を提供する。本発明の他の実施態様に係る方法は、プラットフォーム上に配設された第1画像センサ及び第2画像センサを提供するステップ(a)と、第1画像センサ及び第2画像センサから、それぞれ、第1出力画像及び第2出力画像を受信するステップ(b)と、プラットフォームの動きを検知するステップ(c)と、ステップ(c)にて検知されたプラットフォームの動きに基づいて、ステップ(b)にて受信した第1出力画像又は第2出力画像のオフセットを行って画像オフセットを提供するステップ(d)とを含んでいる。
本発明は、添付の図面との関連において以下の詳細な説明を参照することにより、十分に理解することができるであろう。添付の図面には、「図面の簡単な説明」の項に記述されている図面が含まれている。
少なくとも1つのセンサの出力を電子ディスプレイ装置上に表示するべくアナログ又はディジタル回路によって処理している構成においては、ディスプレイ上における画像の配置をシフトすることが可能である。本明細書においては、1つの画像としてレジストレーションがなされた画像のアライメントを行うための画像の配置における上記のようなシフト処理を「画像のセンタリング(image centering)」と呼んでいる。遅延時間(ラグ:lag)に起因する複数の画像間の空間的オフセットを画像の表示以前に算出している場合には、1つの画像を他の画像との関係において「リセンタリング(re-centering)」することができる。本明細書においては、このリセンタリングを「モーション補正画像レジストレーション」と呼んでいる。この結果、リセンタリングがなされた1つの画像を他の画像上に融合するか又は重ね合わせることにより、観察者によって観察される複合画像を生成することが可能である。
後述するように、本発明は、共通のアライメントがなされた複数の画像センサによって生成された画像の融合を補正するシステム及び方法を提供している。図1を参照すれば、本発明の一実施例に従って、共通のアライメントがなされた画像センサ120及び130の間の画像のミスレジストレーションを補正するシステム100が示されている。システム100は、第1画像センサ120及び第2画像センサ130を含んでおり、これらは、いずれも、全体として参照番号170によって表される同一のプラットフォーム(又は光学ベンチ)上に配設されている。第1画像センサ120は、IMAGEAとして表されている第1出力画像を供給するべく構成されている。第2画像センサ130は、IMAGEBとして表されている第2出力画像を供給するべく構成されている。尚、IMAGEA及びIMAGEBは、JPEG、PNG、GIF、ビットマップ等の任意のフォーマットであってよいことを理解されたい。
システム100は、プラットフォーム又は光学ベンチ170の動きを検知するためのモーションセンサ110を含んでいる。図1に示されているように、モーションセンサ110は、プラットフォーム170の動きを表す直交速度出力RX及びRYを供給している。
一実施例においては、モーションセンサ110は、それぞれ、光学ベンチの水平線加速度及び垂直線加速度を検知する2つの直交方向に方向付けされた加速度計を包含することが可能である。モーションセンサ110は、瞬間的な加速度を時間に対して積分することが可能である。この場合に、RX及びRYは、光学ベンチの水平線速度及び垂直線速度を表している。或いは、その代わりに、モーションセンサ110は、検知された光学ベンチの水平線加速度及び垂直線加速度をプロセッサ140に供給することも可能であり、この結果として、プロセッサが、積分法によって光学ベンチの水平線速度及び垂直線速度を算出することが可能である。
別の実施例においては、モーションセンサ110は、光学ベンチの水平角速度及び垂直角速度を検知する(2つのリングレーザージャイロ等の)2軸の半導体速度ジャイロを包含することが可能である。この場合には、モーションセンサ110の出力RX及びRYは、光学ベンチ170の水平角速度及び垂直角速度をそれぞれ表している。
次に、画像センサ120及び130を参照すれば、それぞれの画像センサに進入する光子とそれぞれの画像センサから出る電子(又は、光子)の間には、遅延が存在している。又、画像センサに結合されている処理回路内にも遅延が存在している。これらの合計の遅延(本明細書においては、これを「処理遅延(processing delay)」又は「遅延時間(lag time)」と呼んでいる)は、光子を検知し、検知された光子を処理するのに必要な時間の結果である。
異なるタイプの画像センサは、異なる遅延時間を有することが可能である。例えば、直視拡大法を使用したレンズシステム等の光学画像センサにおいては、このようなセンサを介した光の通過が実質的に瞬間的であるため、光子の入力と光子の出力との間の時間は、最小限になっている。しかしながら、CMOS又はCCD画像センサ等の電子的な画像センサの場合には、遅延時間は格段に大きなものとなり、これを考慮しなければならない。
センサによって導入される遅延時間は、検知された画像内において物体が動いている画像を融合するか又は重ね合わせることに対して密接な関係を有している(これは、動いている物体が、それぞれのセンサの出力画像上の異なるピクセルポイントに配置されるためである)。従って、結果的に得られる画像は、相対的な遅延時間に起因してミスマッチング状態となり、これらの出力画像を融合すれば、オーバーレイにより重ね合わされた画像内の物体が結果的にぼやけることになる。
更に詳しくは、図1を再度参照すれば、それぞれのセンサが背景の画像を検知及び処理した結果として、画像センサ120及び130により、それぞれ、その出力画像IMAGEA及びIMAGEB内に遅延時間が導入されることになる。代表的な実施例においては、画像センサ120及び130は、第1処理遅延時間(第1遅延時間)及び第2処理遅延時間(第2遅延時間)LagA及びLagB(図1では、LAGA及びLAGBと記す)を提供しており、これらは、それぞれの画像センサによって導入される遅延時間の値を表している。画像センサ120及び130は、これらの遅延時間が一定でない場合には、LagA及びLagBを算出することが可能である。しかしながら、これらの遅延時間が一定である場合には、それぞれの画像センサは、予め設定された又は予めプログラミングされている遅延時間の値を単純に供給することが可能である。
図示のように、プロセッサ140は、入力信号としてLagA及びLagBを受信している。代替実施例においては、画像センサ120及び130の遅延時間は、独立的にプロセッサ140内に予めプログラミングすることが可能である。プロセッサ140は、超低電力のマイクロコントローラICであってよく、或いは、ASIC内に組み込むことも可能である。
プロセッサ140は、センサ120及び130の出力画像をマッチング及び合成(又は融合)することができるように、IMAGEAとIMAGEBとの間のオフセットを算出している。本明細書においては、このオフセットを「画像オフセット(image offset)」と呼んでいる。画像オフセットを算出するべく、プロセッサ140は、RX及びRYに基づいて、IMAGEA及び/又はIMAGEBの水平速度及び垂直速度を算出している。IMAGEA及び/又はIMAGEBの水平速度及び垂直速度、並びにLagA及びLagBを使用することにより、プロセッサ140は、画像オフセットを算出している。この結果が、IMAGE DISPLAY OFFSETSX,Yというベクトルであり、このベクトルは、遅延時間及び光学ベンチ170の動きによって生じたミスレジストレーションを補正するために、IMAGEA又はIMAGEBをシフトさせるべきx方向及びy方向におけるピクセルの数を定義している。
画像センサ120及び130間の遅延時間のずれ(又は、オフセット)は、下記の式(1)に従って表現することが可能である。
LagT=|LagA−LagB| (1)
ここで、LagAは、画像センサ120の処理遅延時間(又は遅延時間)であり、LagBは、画像センサ130の処理遅延時間(又は遅延時間)であって、LagTは、画像センサ120と画像センサ130との間の遅延時間のずれである。LagA>LagBである場合には、IMAGEAがIMAGEBよりも遅れていると表現される。IMAGEAがIMAGEBよりも遅れている(又は、この逆の)量を知ることにより、システム100は、IMAGEB(又は、IMAGEA)にマッチングさせるためにシフト又は補正することを要するIMAGEA(又は、IMAGEB)のピクセル数を判定することが可能である。通常は、相対的に大きな遅延時間を有する画像が補正対象の画像となるが、いずれか一方又は両方の画像をシフト及びリセンタリングすることにより、ミスレジストレーションを低減させるか又は除去することが可能であることが、本発明の範囲内において想定される。
更に図1を参照すれば、融合装置又は画像融合部(fuser)150は、画像センサ120からIMAGEAを、そして、画像センサ130からIMAGEBを受信している。算出されたIMAGE DISPLAY OFFSETSX,Yのベクトルを使用することにより、画像融合部150は、IMAGEA及びIMAGEBを融合して融合された画像(FUSED IMAGE)を生成している。更に詳しくは、融合装置150は、IMAGE DISPLAY OFFSETSX,Yのベクトルに従ってIMAGEA又はIMAGEBのいずれか一方のオフセット(又は、リセンタリング)を行うことによってリセンタリング済みの画像を供給し、次いで、これらの画像を融合している。結果的に得られた融合された画像(FUSED IMAGE)が、観察のために接眼鏡/出力ディスプレイ160に供給されている。
尚、図1には、2つの画像センサが示されているが、本発明は、2つの画像センサに限定されるものではなく、本発明の範囲内において追加の画像センサも想定されることを理解されたい。3つ以上の画像センサを有するシステムにおいては、プロセッサ140は、これらの画像センサの中の1つの画像センサにおける遅延時間を基準遅延時間として指定した後に、その他の画像センサからの出力画像に対して、その個々の遅延時間に基づいてオフセットを行うことが可能である。
又、図1は、画像のミスレジストレーションを補正するシステムを示しているが、本システムは、ビデオ画像のミスレジストレーションを補正するべく構築可能であることを理解されたい。この場合には、センサ120及び130は、ビデオ画像センサであり、任意の既知のフォーマットにおいて出力ビデオ画像を供給している。
又、最後に、図1には、プロセッサ140及び融合装置150が別個のモジュールとして示されているが、破線によって示されているプロセッサ140’等の単一のプロセッサ内にプロセッサ140及び融合装置150を収容することが可能であることも、本発明の範囲内において想定される。
図2を参照すれば、本発明の代表的な実施例に従って光学ベンチ(図1)上に取り付けられた複数の画像センサの間の画像のミスレジストレーションを補正する方法200が示されている。更に詳しくは、方法200は、フレームK(Frame K)のオフセットを行うことにより、画像センサの処理遅延によって導入された遅延時間、及び光学ベンチの動きによって生じた画像のミスマッチを補正する方法を示している。尚、図2において、LagTは、ステップ240においてフレームK(Frame K)を供給している画像センサによって導入される遅延時間を表している。又、LagTは、1つの画像センサと別の画像センサとの間の相対的な遅延時間(遅延時間のずれ)をも表現することが可能である。方法200は、部分的に又は全体的にプロセッサ140又は140’(図1)内において実行されている。
ステップ210において、光学ベンチの角速度(図2では、速度(x,y)と記す)を角速度センサによって検知し、出力ω(h,v)として出力している。ωhは、光学ベンチの水平角速度を示すものである。ωvは、光学ベンチの垂直角速度を示すものである。
ステップ220において、下記の式(2)により、プラットフォームの水平角速度ωhを(x,y)プレーン内のフレームK(Frame K)の水平線速度υxに変換している。
υx=(ωh・Cols)/FOVh (2)
ここで、ωhは、プラットフォームの水平角速度であり、Colsは、フレームK(Frame K)の行内のピクセル数であり(即ち、フレームK内のピクセルの列数であり)、FOVhは、フレームK(Frame K)を供給している画像センサの水平視野(単位:ラジアン)であり、υxは、算出されたフレームK(Frame K)の水平線速度(単位:ピクセル/秒)である。
同様に、ステップ220においては、下記の式(3)により、プラットフォームの垂直角速度ωvを(x,y)プレーン内のフレームK(Frame K)の垂直線速度υyに変換している。
υy=(ωv・Rows)/FOVv (3)
ここで、ωvは、プラットフォームの垂直角速度であり、Rowsは、フレームK(Frame K)の列内のピクセル数であり(即ち、フレームK内のピクセルの行数であり)、FOVvは、フレームK(Frame K)を供給している画像センサの垂直視野(単位:ラジアン)であり、υyは、算出されたフレームK(Frame K)の垂直線速度(単位:ピクセル/秒)である。
ステップ230においては、下記の式(4)に従ってフレームK(Frame K)の水平画像オフセット及び垂直画像オフセットoffsetx,y(図2では、offset(x,y)と記す)を算出している。
offsetx,y=υx,y・LagT (4)
ここで、υx,yは、式(2)及び式(3)に従って算出されたフレームK(Frame K)の水平線速度及び垂直線速度の速度ベクトル(単位;ピクセル/秒)である。LagTは、フレームK(Frame K)を供給している画像センサの処理遅延又は遅延時間(単位:秒)、或いは、1つのセンサと別のセンサとの間の相対的な遅延時間である。offsetx,yは、算出されたフレームK(Frame K)の水平画像オフセット及び垂直画像オフセットのベクトル(単位:ピクセル数)である。この水平画像オフセット及び垂直画像オフセットは、LagT及び光学ベンチの動きの結果として生じる画像のミスレジストレーションを補正するために、シフト又はオフセットを行うことを要するフレームK(Frame K)内のピクセル数を判定している。
ステップ250においては、ステップ240にて供給されたフレームK(Frame K)の画像をフレーム同期信号Sync Inとの関係において調節することにより、リタイミングを実行している。入力されたフレームK(Frame K)のピクセル(0,0)及びすべての後続のピクセルを、offsetx,yによって判定された新しいピクセル位置(x,y)にオフセットすることにより(ピクセル(0,0)の変換等)、オフセット・フレームK(Offset Frame K)を生成している。
次に、図3を参照すれば、本発明の別の代表的な実施例に従って光学ベンチ(図1)上に取り付けられた複数の画像センサの間の画像のミスレジストレーションを補正する方法300が示されている。方法200と同様に、方法300は、フレームK(Frame K)をオフセットすることにより、画像センサの処理遅延によって導入された遅延時間と光学ベンチの動きによって生じる画像のミスマッチを補正する方法を示している。方法300と方法200との相違点は、方法300が、角速度センサではなく加速度計を使用して光学ベンチの動きを検知しているという点にある。又、方法300は、フレームK(Frame K)の水平線速度及び垂直線速度υ(x,y)を算出するステップを含んでおり、これらのステップは、方法200においては実行されていない。
ステップ310において、それぞれ、光学ベンチの水平線加速度及び垂直線加速度αh及びαvを加速度計によって検知し、加速度出力α(h,v)として供給している。ステップ320において、加速度出力α(h,v)を時間に対して積分し、光学ベンチの水平線速度及び垂直線速度υ(h,v)を生成している。
瞬間的な加速度α(h,v)の積分は、誤差を蓄積させ、結果的に光学ベンチの水平線速度及び垂直線速度が次第に低精度で表示されるようになるという傾向を有している。図3は、この誤差を低減させるステップを含む代表的な方法300を示している。
ステップ370及びステップ380において、複数のフレームメモリ(図示されてはいない)内に保存されたビデオ画像フレーム又はサブフレームを供給している。具体的には、ステップ370は、第1フレームメモリ内に保存されたサブフレームK−1(SubFrame K−1)を供給しており、ステップ380は、第2フレームメモリ内に保存されたサブフレームK−2(SubFrame K−2)を供給している。サブフレームK−1(SubFrame K−1)及びサブフレームK−2(SubFrame K−2)は、画像センサ120又は130から連続的に供給される画像のフレーム又はフレームの一部である。これらの2つのフレーム内のカメラデータは、1/FRだけ時間的に離隔しており、ここで、FRは、画像センサのカメラフレームレートである。
ステップ390において、サブフレームK−1(SubFrame K−1)とサブフレームK−2(SubFrame K−2)との間の2つの次元におけるモーション推定を実行している(図3では、グローバル・モーション推定と記す)。ステップ390において、両方のフレームが既定の誤差限界内において空間的に相関していると判定された場合には、サブフレームK−1(SubFrame K−1)の速度は、ゼロ又はその近傍であると仮定される。この結果、ステップ390は、積分器の出力υ(h,v)をゼロにリセットする。この方法は、最大で2フレーム周期だけ古いカメラデータ(K−2)を使用しているため、ステップ320において実行される誤差の補正に1フレームのレイテンシー(latency)が導入されるが、フレームK(Frame K)は遅延されない。
ステップ330において、(x,y)プレーン内のフレームK(Frame K)の水平線速度及び垂直線速度υ(x,y)を算出している。フレームK(Frame K)の水平線速度は、下記の式(5)によって算出される。
υx=((υh/r)Cols)/FOVh (5)
ここで、υhは、プラットフォームの水平線速度であり、rは、加速度計からプラットフォームのピボットポイントまでの半径距離(単位:ラジアン)であり、Colsは、フレームK(Frame K)の行内のピクセル数であり(即ち、フレームK内のピクセルの列数であり)、FOVhは、フレームK(Frame K)を供給している画像センサの水平視野(単位:ラジアン)であり、υxは、算出されたフレームK(Frame K)の水平線速度(単位:ピクセル/秒)である。
フレームK(Frame K)の垂直線速度は、下記の式(6)によって算出される。
υy=((υv/r)Rows)/FOVv (6)
ここで、υvは、プラットフォームの垂直線速度であり、rは、加速度計からプラットフォームのピボットポイントまでの半径距離であり(単位:ラジアン)、Rowsは、フレームK(Frame K)の列内のピクセル数であり(即ち、フレームK内のピクセルの行数であり)、FOVvは、フレームK(Frame K)を供給している画像センサの垂直視野(単位:ラジアン)であり、υyは、算出されたフレームK(Frame K)の垂直線速度(単位:ピクセル/秒)である。
図2と同様に、ステップ340において、式(4)により、画像オフセットoffsetx,y(図3では、offset(x,y)と記す)を算出している。ステップ350において、図2のステップ250と同様に、offsetx,y及びSync Inを使用することにより(ピクセル(0,0)の変換等)、フレームK(Frame K)をオフセットし、結果としてオフセット・フレームK(Offset Frame K)を供給している。
図1を再度参照すれば、システム100は、融合装置150を使用して光学的な融合を実行しており、この場合に、画像センサ120及び130の中の1つは、直視光増強管である。図4は、このような実施例をシステム400として示している。システム400は、プリズム(図4では、融合合成プリズムと記す)430及びフラットパネルディスプレイ(図4では、フラットパネルディジタルディスプレイと記す)428を使用することにより、マルチスペクトルチャネルの光学的なオーバーレイ融合を実行している。システム400は、第1チャネルにおいて背景画像420を検知するセンサ418を含んでいる。センサ422が、第2チャネルにおいて背景画像410を検知している。好ましくは、背景画像420は、背景画像410と同一である。センサ418及び422は、光学ベンチ(図示されてはいない)上に取り付けられている。
センサ418は、例えば、フォトカソード、マルチチャネルプレート(Multi-Channel Plate:MCP)、及び蛍光スクリーンを使用する画像増強装置(図4では、光増強装置と記す)である。可視光及び近赤外光が対物レンズ434及び444によって収集されてフォトカソード(図示されてはいない)上に合焦され、ここで、光子が電子に変換される。電子は、MCP(図示されてはいない)によって加速され、増幅プロセスにおいて新しい電子が生成される。増加した電子が蛍光スクリーン(図示されてはいない)に衝突し、ここで、発光が生じてビーム425を形成し、このビームは、合成プリズム430に向かう方向452に投影されている。
センサ422は、赤外線画像を可視光画像に変換するために使用される赤外線(Infrared:IR)カメラである。IRカメラ422により、可視光画像(ビーム)425とIR出力画像(赤外線出力画像)との間に16ミリ秒の遅延時間が導入される。この遅延時間を補正しなければ、観察者は、画像増強装置418から供給される可視光画像から遅れたIR画像(赤外線画像)を観察することになるであろう。
IRカメラ422の処理遅延によって導入される遅延時間を補正するべく、システム400は、IRカメラ422のIR出力画像をリセンタリングするプロセッサ470を含んでいる。プロセッサ470は、概して、光学ベンチに取り付けられているセンサのタイプに応じて、図2又は図3に示されている各ステップを実行する。プロセッサ470は、検知された光学ベンチの動き、及び、画像増強装置418とIRカメラ422との間の遅延時間に基づいて、IRカメラ422のIR出力画像をリセンタリングしている。プロセッサ470は、最終的に合成プリズム(図4では、融合合成プリズムと記す)430によって画像増強装置418からの補正されていない画像と合成されるように、補正済みの画像をフラットパネルディジタルディスプレイ428に供給してビーム426を形成する。
合成プリズム430により、2つの光学チャネルを合成することが可能である。入射された放射光の70%を透過し、30%を反射することが可能であるダイクロイックコーティング(dichroic coating)450を使用することにより、2つの垂直の光経路を合成している。画像増強装置418の出力(可視光画像)425は、ビーム合成プリズム(図4では、融合合成プリズムと記す)430に隣接して配置されており、光経路454に対して垂直に方向付けされている。
2つのビーム425及び426は、合成プリズム430上に画像として投影されており、この合成プリズムは、これらの画像を合成して合成(融合)されたオーバーレイ画像459を供給する。光学レンズ458(図4では、出力対物レンズと記す)は、合成された画像459を、観察者460による観察のために合焦している。
最後に図5を参照すれば、本発明の別の代表的な実施例に従って可視光カメラ510とIRカメラ520との間の画像のミスレジストレーションを補正するシステム500が示されている。可視光対物レンズ512は、背景から光を収集し、可視光をカメラ510(図5では、可視光カメラと記す)に伝達している。同様に、IR対物レンズ522は、背景からIR光(赤外光)を収集し、IR光をIRカメラ520に伝達している。可視光カメラ510は、第1出力画像及び第1遅延時間表示結果(図示されてはいない)をプロセッサ530に供給している。IRカメラ520は、第2出力画像と第2遅延時間表示結果(図示されてはいない)をプロセッサ500に供給している。両方のカメラ510及び520は、光学ベンチ上に取り付けられており、この光学ベンチは、モーションセンサを含んでいる。
プロセッサ530は、方法200又は300を使用することにより、第1遅延時間又は第2遅延時間及びモーションセンサによって検知された動きに基づいて第1出力画像又は第2出力画像をオフセットしている。プロセッサ530(これは、融合電子回路を含んでいる)は、オフセットされた画像をオフセットされていない出力画像と融合し、この結果として得られる融合済みの画像を、融合された画像546としてフラットパネルディスプレイ(図5では、フラットパネルディジタルディスプレイと記す)542に供給している。出力対物レンズ544は、融合された画像546を、観察者550による観察のために投影している。フラットパネルディスプレイ542と出力対物レンズ544との組み合わせは、接眼鏡540内に収容することが可能である。
代表的な実施例においては、観察者550が人間の観察者であるものと仮定している。別の実施例においては、最終的なフレーム保存のための更なる電子的処理及び光学的処理に対して、融合された画像546を供給することが可能である。
本明細書においては、特定の実施例を参照し、本発明について例示及び説明しているが、本発明は、本明細書にて提示された詳細事項に限定されるものではない。逆に、特許請求の範囲における各請求項の等価物の範囲内において、本発明を逸脱することなしに、これらの詳細事項において様々な変更を実施することが可能である。
本発明の一実施例に従って画像センサから供給されるビデオ画像を融合する画像融合装置を含むモーション補正画像オーバーレイシステムを示すブロック図である。 本発明の一実施例に従って画像のミスレジストレーションを補正する方法を示す流れ図である。 本発明の代表的な実施例に従って画像のミスレジストレーションを補正する方法を示す流れ図である。 融合装置が光学オーバーレイ融合装置であり、画像センサが直視光増強管及びIRカメラを含んでいる図1のシステムの概略図である。 融合装置が電子ビデオ画像融合装置であり、画像センサが可視光カメラ及びIRカメラを含んでいる図1のシステムの概略図である。

Claims (23)

  1. 少なくとも2つの画像センサの間の画像のミスレジストレーションを補正するシステムにおいて、
    プラットフォーム上に配設され、且つ、それぞれ、第1出力画像及び第2出力画像を供給するべく構成された第1画像センサ及び第2画像センサと、
    前記プラットフォームの動きを検知するモーションセンサと、
    前記モーションセンサによって検知された前記プラットフォームの動きに基づいて画像オフセットを算出するべく構成されたプロセッサとを有することを特徴とするシステム。
  2. 前記第1画像センサ及び前記第2画像センサは、それぞれ、第1処理遅延時間及び第2処理遅延時間を含んでおり、前記プロセッサは、前記第1処理遅延時間及び前記第2処理遅延時間に基づいて前記第1画像センサと前記第2画像センサとの間の遅延時間のずれを算出するべく構成されている請求項1記載のシステム。
  3. 前記システムは、更に画像融合部を有しており、
    前記プロセッサは、(i)更に前記遅延時間のずれに基づいて前記画像オフセットを算出し、且つ、(ii)前記画像オフセットに基づいて、前記第1出力画像又は前記第2出力画像の中の一方を前記第1出力画像又は前記第2出力画像の中の他方との関係においてオフセットするべく構成されており、
    前記画像融合部は、前記画像オフセットに基づいて前記第1出力画像及び前記第2出力画像を融合するべく構成されている請求項2記載のシステム。
  4. 前記プロセッサは、検知された前記プラットフォームの動きに基づいて前記第1出力画像又は前記第2出力画像のプレーン内における水平線速度及び垂直線速度を算出するべく構成されている請求項2記載のシステム。
  5. 前記プロセッサは、算出された前記水平線速度及び前記垂直線速度に基づいて前記第1出力画像又は前記第2出力画像をオフセットするべく構成されている請求項4記載のシステム。
  6. 前記第1出力画像又は前記第2出力画像をオフセットした後に、前記第1出力画像及び前記第2出力画像を融合するべく構成された画像融合部を含んでいる請求項5記載のシステム。
  7. 前記第1出力画像と前記第2出力画像との間の時間基準として、同期信号が前記画像融合部に対して供給されている請求項6記載のシステム。
  8. 前記モーションセンサは、前記プラットフォームの角速度を検知するべく構成された速度センサを含んでいる請求項1記載のシステム。
  9. 前記プロセッサは、下記の式、
    υx=(ωh・Cols)/FOVh
    を使用することにより、前記第1出力画像又は前記第2出力画像の水平線速度を算出するべく構成されており、
    ここで、ωhは、前記プラットフォームの水平角速度であり、Colsは、前記第1出力画像又は前記第2出力画像の行内のピクセル数であり、FOVhは、前記第1画像センサ又は前記第2画像センサの水平視野であり、υxは、前記第1出力画像又は前記第2出力画像の算出された前記水平線速度である請求項8記載のシステム。
  10. 前記プロセッサは、下記の式、
    υy=(ωv・Rows)/FOVv
    を使用することにより、前記第1出力画像又は前記第2出力画像の垂直線速度を算出するべく構成されており、
    ここで、ωvは、前記プラットフォームの垂直角速度であり、Rowsは、前記第1出力画像又は前記第2出力画像の列内のピクセル数であり、FOVvは、前記第1画像センサ又は前記第2画像センサの垂直視野であり、υyは、前記第1出力画像又は前記第2出力画像の算出された前記垂直線速度である請求項8記載のシステム。
  11. 前記プロセッサは、下記の式、
    offsetx,y=υx,y・LagT
    を使用することにより、水平画像オフセット及び垂直画像オフセットを算出するべく構成されており、
    ここで、υx,yは、前記水平線速度及び前記垂直線速度の速度ベクトルであり、LagTは、前記遅延時間のずれであり、offsetx,yは、算出された前記水平画像オフセット及び前記垂直画像オフセットのベクトルである請求項4記載のシステム。
  12. 前記モーションセンサは、前記プラットフォームの水平線加速度及び垂直線加速度を検知するべく構成された加速度計を含んでいる請求項1記載のシステム。
  13. 前記水平線加速度及び前記垂直線加速度を時間に対して積分することにより、前記プラットフォームの個別の水平線速度及び垂直線速度を供給する積分器を含んでいる請求項12記載のシステム。
  14. 前記第1出力画像又は前記第2出力画像の個別の第1先行フレーム及び第2先行フレームを保存するべく構成された第1フレームメモリ及び第2フレームメモリを含んでおり、
    前記プロセッサは、前記第1先行フレーム及び前記第2先行フレームが誤差限界内において空間的に相関していると判定した場合に、前記積分器をゼロに合わせるべく構成されている請求項13記載のシステム。
  15. 前記プロセッサは、前記プラットフォームの前記水平線速度及び前記垂直線速度に基づいて前記第1出力画像又は前記第2出力画像の水平線速度及び垂直線速度を算出するべく構成されている請求項14記載のシステム。
  16. 前記プロセッサは、下記の式、
    υx=((υh/r)Cols)/FOVh
    を使用することにより、前記第1出力画像又は前記第2出力画像の前記水平線速度を算出するべく構成されており、
    ここで、υhは、前記プラットフォームの前記水平線速度であり、rは、前記加速度計から前記プラットフォームのピボットポイントへの半径距離であり、Colsは、前記第1出力画像又は前記第2出力画像の行内のピクセル数であり、FOVhは、前記第1画像センサ又は前記第2画像センサの水平視野であり、υxは、前記第1出力画像又は前記第2出力画像の前記水平線速度である請求項13記載のシステム。
  17. 前記プロセッサは、下記の式、
    υy=((υv/r)Rows)/FOVv
    を使用することにより、前記第1出力画像又は前記第2出力画像の前記垂直線速度を算出するべく構成されており、
    ここで、υvは、前記プラットフォームの前記垂直線速度であり、rは、前記加速度計から前記プラットフォームのピボットポイントへの半径距離であり、Rowsは、前記第1出力画像又は前記第2出力画像の列内のピクセル数であり、FOVvは、前記第1画像センサ又は前記第2画像センサの垂直視野であり、υyは、前記第1出力画像又は前記第2出力画像の前記垂直線速度である請求項13記載のシステム。
  18. 前記第1画像センサは、前記第1出力画像を供給するべく構成された光学系を含んでおり、
    前記第2画像センサは、前記第2出力画像を供給するべく構成された電子画像センサを含んでいる請求項3記載のシステム。
  19. 前記システムは、更に、ディジタルディスプレイ及び合成プリズムを有する画像融合部を有しており、
    前記光学系は、前記第1出力画像を前記合成プリズム上に投影するべく構成されており、
    前記ディジタルディスプレイは、前記第2出力画像、前記画像オフセット、及び前記遅延時間のずれに基づいて光画像を前記合成プリズム上に投影するべく構成されており、
    前記合成プリズムは、前記第1出力画像を、投影された前記光画像と融合するべく構成されている請求項18記載のシステム。
  20. 前記第1画像センサ及び前記第2画像センサは、前記第1出力画像及び前記第2出力画像を電気信号として供給し、前記画像融合部は、前記第1出力画像又は前記第2出力画像のオフセットを行った後に、前記第1出力画像及び前記第2出力画像を融合するべく構成された融合電子回路を含んでいる請求項3記載のシステム。
  21. 少なくとも2つの画像センサの間の画像のミスレジストレーションを補正する方法において、
    プラットフォーム上に配設された第1画像センサ及び第2画像センサを提供するステップ(a)と、
    それぞれ、第1出力画像及び第2出力画像を前記第1画像センサ及び前記第2画像センサから受信するステップ(b)と、
    前記プラットフォームの動きを検知するステップ(c)と、
    前記ステップ(c)にて検知された前記プラットフォームの動きに基づいて、前記ステップ(b)にて受信した前記第1出力画像又は前記第2出力画像のオフセットを行って画像オフセットを提供するステップ(d)とを有することを特徴とする方法。
  22. 前記方法は、
    それぞれ、前記第1画像センサ及び前記第2画像センサの第1処理遅延時間及び第2処理遅延時間を判定するステップ(e)と、
    前記ステップ(e)にて判定された前記第1処理遅延時間と前記第2処理遅延時間との間の遅延時間のずれを算出するステップ(f)とを更に有する請求項21記載の方法。
  23. 前記ステップ(d)にて判定された前記画像オフセットと前記ステップ(f)にて算出された前記遅延時間のずれに基づいて、前記第1出力画像及び前記第2出力画像を融合するステップ(g)を更に有する請求項22記載の方法。
JP2007192044A 2006-07-25 2007-07-24 画像のミスレジストレーションを補正するシステム及び方法 Active JP4903645B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/492,441 2006-07-25
US11/492,441 US7805020B2 (en) 2006-07-25 2006-07-25 Motion compensated image registration for overlaid/fused video

Publications (2)

Publication Number Publication Date
JP2008067363A true JP2008067363A (ja) 2008-03-21
JP4903645B2 JP4903645B2 (ja) 2012-03-28

Family

ID=38657698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007192044A Active JP4903645B2 (ja) 2006-07-25 2007-07-24 画像のミスレジストレーションを補正するシステム及び方法

Country Status (6)

Country Link
US (1) US7805020B2 (ja)
EP (1) EP1883227B1 (ja)
JP (1) JP4903645B2 (ja)
AU (1) AU2007203127B2 (ja)
CA (1) CA2594699C (ja)
IL (1) IL184397A (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531562B2 (en) * 2004-12-03 2013-09-10 Fluke Corporation Visible light and IR combined image camera with a laser pointer
US9229230B2 (en) 2007-02-28 2016-01-05 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
US8396321B1 (en) * 2007-04-25 2013-03-12 Marvell International Ltd. Method and apparatus for processing image data from a primary sensor and a secondary sensor
ITTO20070620A1 (it) * 2007-08-31 2009-03-01 Giancarlo Capaccio Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali.
US8497920B2 (en) 2008-06-11 2013-07-30 Nokia Corporation Method, apparatus, and computer program product for presenting burst images
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
DE102010008456A1 (de) * 2010-02-18 2011-08-18 Testo AG, 79853 Verfahren zur Extraktion eines IR-Bildes und Wärmebildkamera
DE102010013377B4 (de) * 2010-03-30 2012-02-02 Testo Ag Bildverarbeitungsverfahren und Wärmebildkamera
CN101853492B (zh) * 2010-05-05 2012-07-04 浙江理工大学 一种夜视微光图像与红外图像融合方法
US8743206B2 (en) * 2010-08-31 2014-06-03 Exelis, Inc. Indicator systems in beam combiner assemblies
FR2968777B1 (fr) * 2010-12-14 2013-02-15 Thales Sa Systeme d'acquisition d'images en visibilite reduite eventuellement integrable dans un systeme de visualisation de casque
US9661205B2 (en) * 2011-02-28 2017-05-23 Custom Manufacturing & Engineering, Inc. Method and apparatus for imaging
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
KR101778353B1 (ko) 2011-06-10 2017-09-13 플리어 시스템즈, 인크. 적외선 이미징 장치용 불균일성 교정 기술
CN103748867B (zh) 2011-06-10 2019-01-18 菲力尔系统公司 低功耗和小形状因子红外成像
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US20130107072A1 (en) * 2011-10-31 2013-05-02 Ankit Kumar Multi-resolution ip camera
US9323061B2 (en) 2012-04-18 2016-04-26 Kopin Corporation Viewer with display overlay
US9389425B2 (en) 2012-04-18 2016-07-12 Kopin Corporation Viewer with display overlay
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
GB2509102B (en) * 2012-12-20 2015-09-02 Thales Holdings Uk Plc Image processor for processing images received from a plurality of image sensors
CN105009568B (zh) * 2012-12-21 2018-12-18 菲力尔系统公司 用于处理可见光谱图像和红外图像的系统、方法及非易失性机器的可读介质
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
CN105358055A (zh) * 2013-07-12 2016-02-24 墨尔本皇家理工大学 传感器阵列系统
CN105472263B (zh) * 2014-09-12 2018-07-13 聚晶半导体股份有限公司 影像撷取方法及使用此方法的影像撷取设备
CN110830779B (zh) * 2015-08-28 2022-06-03 杭州海康威视数字技术股份有限公司 一种图像信号的处理方法和系统
JP6522539B2 (ja) * 2016-03-18 2019-05-29 富士フイルム株式会社 内視鏡システム及びその作動方法
GB2550854B (en) 2016-05-25 2019-06-26 Ge Aviat Systems Ltd Aircraft time synchronization system
AU2017332754B2 (en) 2016-09-22 2021-08-12 Lightforce USA, Inc., d/b/a/ Nightforce Optics, Inc. Optical targeting information projection system for weapon system aiming scopes and related systems
US10560609B2 (en) 2016-11-04 2020-02-11 Karl Storz Endoscopy-America, Inc. System and related method for synchronized capture of data by multiple network-connected capture devices
US11113791B2 (en) 2017-01-03 2021-09-07 Flir Systems, Inc. Image noise reduction using spectral transforms
US10732399B2 (en) 2017-02-06 2020-08-04 Sheltered Wings, Inc. Viewing optic with an integrated display system
US10121091B2 (en) 2017-02-09 2018-11-06 Rosemount Aerospace Inc. IMU-aided image registration
US11675180B2 (en) 2018-01-12 2023-06-13 Sheltered Wings, Inc. Viewing optic with an integrated display system
EP3769028A4 (en) 2018-03-20 2022-03-23 Sheltered Wings, Inc. D/b/a/ Vortex Optics VISUALIZATION OPTICS WITH A BASE HAVING A LIGHT MODULE
US11480781B2 (en) 2018-04-20 2022-10-25 Sheltered Wings, Inc. Viewing optic with direct active reticle targeting
AU2019379506A1 (en) 2018-08-08 2021-03-04 Sheltered Wings, Inc. D/B/A Vortex Optics A display system for a viewing optic
EP3911909A4 (en) 2019-01-18 2023-03-08 Sheltered Wings d/b/a Vortex Optics VIEW OPTICS WITH ROUND COUNTER SYSTEM
KR102179547B1 (ko) * 2019-04-26 2020-11-17 재단법인 실감교류인체감응솔루션연구단 지연시간 기반의 동적 네트워크 서비스 운용 방법 및 장치
CN110308300B (zh) * 2019-06-27 2021-09-21 厦门盈趣科技股份有限公司 一种融合多种特性数据的转速测量方法及装置
US11054629B1 (en) * 2020-01-17 2021-07-06 L3Harris Technologies, Inc. Nightvision with integrated micro-display module

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05304675A (ja) * 1991-11-01 1993-11-16 Massachusetts Inst Of Technol <Mit> 異なる焦点距離又は異なる視域の複数の像を使用した高解像度静止画像を得る方法及び装置
JPH08111874A (ja) * 1994-10-13 1996-04-30 Minolta Co Ltd 3次元カメラ
JP2005286656A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 撮像装置、車両、および運転支援方法
JP2007263983A (ja) * 2000-10-12 2007-10-11 Amnis Corp 画像化システム及びその方法
US20070235634A1 (en) * 2004-07-02 2007-10-11 Ottney Joseph C Fusion night vision system
JP2008511080A (ja) * 2004-08-23 2008-04-10 サーノフ コーポレーション 融合画像を形成するための方法および装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3689796T2 (de) 1985-01-16 1994-08-04 Mitsubishi Electric Corp Videokodierungsvorrichtung.
US4751571A (en) 1987-07-29 1988-06-14 General Electric Company Composite visible/thermal-infrared imaging apparatus
US5035472A (en) 1990-06-20 1991-07-30 The United States Of America As Represented By The Secretary Of The Army Integrated multispectral man portable weapon sight
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US5978015A (en) * 1994-10-13 1999-11-02 Minolta Co., Ltd. Stereoscopic system with convergence and dioptric power adjustments according to object distance
JP3380402B2 (ja) * 1996-08-07 2003-02-24 シャープ株式会社 撮像装置
US6310982B1 (en) 1998-11-12 2001-10-30 Oec Medical Systems, Inc. Method and apparatus for reducing motion artifacts and noise in video image processing
US6448545B1 (en) * 2000-01-18 2002-09-10 Syncrotronics Corp. Precision endoscopic imaging system
US7345277B2 (en) * 2000-08-09 2008-03-18 Evan Zhang Image intensifier and LWIR fusion/combination system
EP1389956B1 (en) * 2001-04-25 2012-10-31 Amnis Corporation Method and apparatus for correcting crosstalk and spatial resolution for multichannel imaging
US7049597B2 (en) * 2001-12-21 2006-05-23 Andrew Bodkin Multi-mode optical imager
WO2003104877A1 (en) 2002-06-05 2003-12-18 Litton Systems, Inc. Enhanced night vision goggle assembly
WO2003105084A2 (en) 2002-06-06 2003-12-18 Litton Systems, Inc. Integrated display image intensifier assembly
JP4185052B2 (ja) * 2002-10-15 2008-11-19 ユニバーシティ オブ サザン カリフォルニア 拡張仮想環境
IL153967A (en) * 2003-01-15 2014-01-30 Elbit Systems Ltd Multifunctional camera for changing vision conditions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05304675A (ja) * 1991-11-01 1993-11-16 Massachusetts Inst Of Technol <Mit> 異なる焦点距離又は異なる視域の複数の像を使用した高解像度静止画像を得る方法及び装置
JPH08111874A (ja) * 1994-10-13 1996-04-30 Minolta Co Ltd 3次元カメラ
JP2007263983A (ja) * 2000-10-12 2007-10-11 Amnis Corp 画像化システム及びその方法
JP2005286656A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 撮像装置、車両、および運転支援方法
US20070235634A1 (en) * 2004-07-02 2007-10-11 Ottney Joseph C Fusion night vision system
JP2008511080A (ja) * 2004-08-23 2008-04-10 サーノフ コーポレーション 融合画像を形成するための方法および装置

Also Published As

Publication number Publication date
EP1883227A2 (en) 2008-01-30
IL184397A0 (en) 2007-10-31
CA2594699C (en) 2015-11-24
CA2594699A1 (en) 2008-01-25
US20080025640A1 (en) 2008-01-31
US7805020B2 (en) 2010-09-28
IL184397A (en) 2014-03-31
EP1883227A3 (en) 2011-09-21
EP1883227B1 (en) 2012-12-19
AU2007203127A1 (en) 2008-02-14
AU2007203127B2 (en) 2012-04-19
JP4903645B2 (ja) 2012-03-28

Similar Documents

Publication Publication Date Title
JP4903645B2 (ja) 画像のミスレジストレーションを補正するシステム及び方法
JP5417138B2 (ja) カメラモジュール
WO2014050718A1 (ja) 焦点検出装置および撮像装置
JP2007133087A (ja) 焦点検出装置、光学システムおよび焦点検出方法
JP5633181B2 (ja) デプスマップ出力装置
US20110169918A1 (en) 3d image sensor and stereoscopic camera having the same
US20140204178A1 (en) Imaging device and shading correction method
JP2004186863A (ja) 立体映像表示装置及び立体映像信号処理回路
WO2016158618A1 (ja) 撮像装置
KR20170000686A (ko) 거리 검출 장치 및 이를 포함하는 카메라 모듈
JP2018056753A (ja) カメラコントローラ、画像処理モジュール、および半導体システム
JP2000341719A (ja) ステレオカメラ
JP2013088587A (ja) ステレオ撮像装置
JP2006165601A (ja) 撮像装置及び撮像素子
JP2009251523A (ja) 相関演算方法、相関演算装置、焦点検出装置および撮像装置
JP2006246295A (ja) 撮像装置
JP6257289B2 (ja) 画像処理装置およびそれを備えた撮像装置、画像処理方法
JP6311238B2 (ja) 撮像装置、撮像システムおよび車両
JP5488221B2 (ja) 撮像装置
JP6573379B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2007189602A (ja) 撮像装置
JP2009122159A (ja) 焦点検出装置および撮像装置
JP6439412B2 (ja) 画像処理装置および画像処理方法
WO2022168501A1 (ja) カメラモジュール、撮影方法、及び、電子機器
JP5549545B2 (ja) プロジェクタ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120105

R150 Certificate of patent or registration of utility model

Ref document number: 4903645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250