JP3772016B2 - Wavelength selective camera device - Google Patents

Wavelength selective camera device Download PDF

Info

Publication number
JP3772016B2
JP3772016B2 JP07981398A JP7981398A JP3772016B2 JP 3772016 B2 JP3772016 B2 JP 3772016B2 JP 07981398 A JP07981398 A JP 07981398A JP 7981398 A JP7981398 A JP 7981398A JP 3772016 B2 JP3772016 B2 JP 3772016B2
Authority
JP
Japan
Prior art keywords
wavelength
optical
image
video signal
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07981398A
Other languages
Japanese (ja)
Other versions
JPH11275429A (en
Inventor
國治 滝沢
信雄 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP07981398A priority Critical patent/JP3772016B2/en
Publication of JPH11275429A publication Critical patent/JPH11275429A/en
Application granted granted Critical
Publication of JP3772016B2 publication Critical patent/JP3772016B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、光学的バンドパスフィルタと、撮像素子とを組み合わせて、特定の波長の被写体画像を抽出する波長選択型カメラ装置に係わり、特に海面上に浮いている油膜などの画像を抽出して映像化する波長選択型カメラ装置に関する。
【0002】
[発明の概要]
本発明は、光学的バンドパスフィルタと、撮像素子とを組み合わせて、特定の画像を抽出する波長選択型カメラ装置に関するもので、光電変換機能を有する複数の撮像素子と、これらの撮像素子に同じ光学画像を分配するレンズを含む光学系と、各撮像素子とレンズの間に設けられた互いに異なる透過波長帯域を持つ複数の光学的バンドパスフィルタと、波長の異なる複数の画像について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標をもつ画素毎に、信号レベル差を計算し、かつ、その絶対値に比例した値を出力する画像演算部とによって波長選択型カメラ装置を構成することにより、従来、検出することが困難であった海面や水面などに浮かんだ油膜や有機膜などの薄膜を高コントラストの画像として映像化するものである。
【0003】
【従来の技術】
波長選択型のカメラ装置の1つとして、従来、図22に示すフルカラーカメラ装置が知られている。
【0004】
この図に示すフルカラーカメラ装置200では、レンズ201と撮像素子202、203、204との間に、ダイクロイックプリズム205を設けて、被写体側からの白色光206を3原色光R、G、Bに分解している。この場合、撮像素子202、203、204としては、CCD(Charge Coupled Device)、MOS(Metal Oxide Semiconductor)、CPD(Charge Priming Device)、SIT(Static Induction Transistor)、CMD(Charge Modulation Device)、AMI(Amplified Mos Intelligent Imager)など、従来から良く用いられている個体撮像素子が用いられる。その他、プランビコン、サチコン、ビジコン、カルニコン、ハーピコンなどの撮像管なども使われる。
【0005】
そして、各撮像素子202〜204によって生成された各映像信号が各ヘッドアンプ回路207、208、209に供給されて各々、増幅されるとともに、各映像処理回路210、211、212によって各種の補償処理が行われた後、エンコーダ回路213によって、合成されて、カラーテレビ信号に変換され、次段装置に供給される。
【0006】
なお、ここでは、フルカラーカメラ装置200では、入射光量を減衰するアイリスやND(Neutral Density)フィルタ、赤外線を遮断するIR(Infrared)フィルタ、駆動回路や画像処理回路にパルス信号を送るパルス発生器、映像の輪郭を強調する輪郭補償回路、電源などもが使用されるが、各要素部品については、このフルカラーカメラ装置200の本質に関わらないため、省略している。
【0007】
【発明が解決しようとする課題】
ところで、淡水や海水に浮かんだ油膜や有機膜などの膜は水に近い屈折率を持つため、光吸収率が小さい場合、光(特に可視光以上の長波長光)をほとんど吸収せず、目視では水やガラスなどの透明物質と区別することが難しいという特性を持っている。また、吸収率が大きくても膜厚が薄い場合でも、殆どの光が薄膜を通過してしまい、目視では水やガラスなどの透明物質と区別することが難しい。例えば、水の吸収率(緑色光に対して約2.3×10-4cm-1)の3万倍以上の大きな吸収率を持つ原油(緑色光に対しての吸収率は約8cm-1:文献[1]V.M.ZOLOTAREV,I.A.KITUSHINA,and S.M.SUTOVSKIY,Optical Characteristics of Oils in the 0.4-15μm Band,Oceanology Vol.17,No.6,pp.736-739(1977).)でも、厚さが1μmの場合には、高々1%の光が吸収されるに過ぎない。
【0008】
このため、従来から知られている一般的な波長選択型カメラ装置では、海面の映像と、油膜などの映像とを明確に区別することが難しく、淡水や海水に浮かんだ油膜や有機膜など検出することが困難である。
【0009】
同様に、図22に示すフルカラーカメラ装置200でも、人間の視覚特性にできるだけ近い画像を撮影することを目的としているため、前述した水面に浮かんだ油膜や有機膜など、目視観察では容易に検出できない被写体を撮影しても、これらを高コントラストな画像として検出することができない。
【0010】
また、このようなフルカラーカメラ装置200以外の波長選択型カメラ装置として、フルカラーカメラ装置のレンズの前後に、特定の波長領域の光を透過させ、それ以外の領域の光を吸収させる色フィルタを設置した波長選択型カメラ装置もある。
【0011】
しかしながら、この波長選択型カメラ装置は、フルカラーカメラ装置の波長選択領域を狭めただけであり、撮像の原理については、図22のフルカラーカメラ装置200と何ら変わらないことから、図22に示すフルカラーカメラ装置200と同様に、水面に浮かんだ油膜や有機膜などを高コントラストな画像にすることが困難である。
【0012】
以下、海面に浮かんだ油膜を例に取り、図面を参照しながら、その理由を以下に詳細に述べる。
【0013】
まず、海面に油膜が浮いている場合には、図23に示すように、上層(一般に空気)215、中層(液体の油膜あるいは有機膜)216、下層(淡水や海水などの液体)217の3層構造と見なすことができることから、上層215側から中層216に光218が入射したとき、中層216を構成する薄膜の内部で何度も反射を繰り返しながら、上層215側から光219が放射されるとともに、下層217側から光220が放射される。これらの多数の光219(または、光220)は互いに干渉するため、薄膜で反射された光219および薄膜を透過した光220の強度は弱い波長依存性を持つ。このことから、水面に浮かんだ油膜は、性能の悪い一種の反射増加膜あるいは反射防止膜と見なすことができる。
【0014】
ここで、上層215、中層216、下層217の各屈折率をそれぞれn1、n2、n3とし、中層216の吸収率と厚さをそれぞれをa、Lとすると、中層216からの反射光の強度Iは、次の(1)式で与えられる。
【0015】
【数1】

Figure 0003772016
ここで、ψは図23に示すように、隣接する反射光線(光219)の間の位相差であり、入射する光218の真空中における波長をλとすると、次の(2)式で表すことができる。
【0016】
【数2】
ψ=(4πn2d)[1−(n1/n22]sin2φ10.5/λ …(2)ただし、この(2)式では、上層215から中層216に入射する光218の入射角度をφ1とした。また、dは図23に示すように、中層216を一度だけ、横切るときの光路長であり、次の(3)式で表される。
【0017】
【数3】
d=L/[1−(1−n1/n22sin2φ10.5 …(3)
さらに、r1は上層215と中層216との界面における振幅反射率、r2は中層216と下層217との界面における振幅反射率であり、入射する光218がP波光であるとき、次の(4)式で与えられる。
【0018】
【数4】
1=tan(φ1−φ2)/tan(φ1+φ2
2=tan(φ3−φ2)/tan(φ3+φ2)…(4)
ここで、φ2、φ3は以下の(5)式で表される。
【0019】
【数5】
φ2=sin-1[(n1/n2)sinφ1
φ3=sin-1[(n1/n3)sinφ1]…(5)
また、入射する光218がS波光である場合、r1、r2は以下の(6)式で与えられる。
【0020】
【数6】
1=−sin(φ1−φ2)/sin(φ1+φ2
2=−sin(φ3−φ2)/sin(φ3+φ2)…(6)
そして、(1)〜(6)式より、中層216からの反射光(光219)と波長との関係を求めることができる。例えば、上層215を空気(n1=1)、下層217を海水(n3=1.33)、中層216である膜の屈折率をn2=1.5、その吸収率をa=0cm-1とすると、S波光の規格化された反射強度(以後、中層216の反射率と呼ぶ)とスペクトルの関係は、図24(a)〜(e)、図25(a)〜(e)で表される。ただし、図24(a)〜(e)は中層216の厚さLがL=1μm、図25(a)〜(e)は中層216の厚さLがL=10μmの場合であり、各層の屈折率分散を無視している。ここで、波長依存性のない直線(波線)は、膜のない海面の反射率である。
【0021】
これらの図から明らかなように、海面が空間的、時間的に一定で、かつ膜に入射する光218の強度が一定の場合には、膜からの反射光強度および膜がない海面からの反射光強度の差を測定することにより、原理的には、両者を区別する事が可能である。
【0022】
しかしながら、実際には、時間的にも、空間的にも、海面の高さ形状などが大きく変化し、さらに天候状態や撮影方向により、膜に入射する光218の強度も大きく変動するため、入射角度φ1が小さく、膜からの反射光強度および膜がない海面からの反射光強度の差が非常に小さい場合のみならず、入射角度φ1が大きい場合でも、膜の反射率と海面の反射率との差を検出するだけでは、膜の存在位置を定めることはきわめて困難である。
【0023】
さらに、実際の測定では、反射率を直接、測定することができず、反射光強度を測定し、この測定結果に基づき、反射率を計算しなければならないことから、前述のようなさまざまな要因によって、反射光強度が変化しているとき、人間が判定に介在しない限り、海面上に油膜などが浮いていても、これを認識することができない。したがって、従来の油膜検出方法では、測定の自動化を図ることは事実上不可能であるのみならず、油膜と潮目を間違えるなど、信頼性にも問題があることが指摘されている。
【0024】
また、上述した説明では、膜の吸収が無視できることを条件にして計算を行なって、図24(a)〜(e)、図25(a)〜(e)に示すように、S波光の反射率を求めているが、吸収を考慮した場合、例えば膜の吸収率aをa=8cm-1とした場合にも、図26(a)〜(e)、図27(a)〜(e)に示すように、中層216の反射率が波長依存性を持つ。ただし、図26は中層216の厚さLがL=1μm、図27は中層216の厚さLがL=10μmの場合であり、各層の屈折率分散を無視している。ここで、波長依存性のない直線(波線)は、膜のない海面の反射率である。
【0025】
これらの図から明らかなように、膜の吸収率が大きい場合でも、膜の反射率の依存性がやや小さくなるだけで、図24(a)〜(e)、図25(a)〜(e)と本質的な差は違わないことから、従来の波長選択型カメラ装置のように、光学的バンドパスフィルタを用いて波長領域を狭め、撮像素子で単純に光電変換して画像化するだけでは、海面上に浮いている油膜などのように、元来、目視観察が困難もしくは不可能な非常にコントラストの低い画像をコントラストの高い見やすい画像に変換することはできない。
【0026】
このため、海面に浮かんだ油膜や有機膜を正確にかつ迅速に検出しなければならない場合、例えば遭難した航空機や船舶の探索あるいは、タンカーからの原油流出状況の的確な把握などを行なうときなどでも、油膜などを映像化することがでず、このような映像を得ることができる波長選択型カメラ装置の開発が強く望まれていた。
【0027】
本発明は上記の事情に鑑み、請求項1〜3では、海面からの反射光が強い場合でも、海面上などに浮いている油膜を高いコントラストで映像化することができ、これによって遭難現場などを確実に見つけ出すことができる波長選択型カメラ装置を提供することを目的としている。
【0028】
また、請求項4〜6では、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜を高いコントラストで映像化することができ、これによって遭難現場などを確実に見つけ出すことができる波長選択型カメラ装置を提供することを目的としている。
【0029】
また、請求項では、ヘリコプタや航空機などで、探索範囲の上空を高速で飛行しながら、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜を高いコントラストで映像化することができ、これによって遭難現場などを迅速に、かつ確実に見つけ出すことができる波長選択型カメラ装置を提供することを目的としている。
【0030】
【課題を解決するための手段】
上記の目的を達成するために本発明は、請求項1では、撮影動作によって得られた光像を各波長域毎の光像にして特定の波長の被写体画像を抽出することで海水面または淡水面上の油膜を検出する波長選択型カメラ装置において、前記撮影動作によって得られた光像を透過/反射して、2つの光像を生成する光学系と、互いに異なる透過波長領域を持ち、前記光学系によって生成された各光像から各波長域の光像を抽出する2つの光学的バンドパスフィルタと、各光学的バンドパスフィルタによって抽出された各波長域毎の光像を光電変換して各波長域の映像信号を生成する2つの撮像素子と、各撮像素子から出力される各波長域の各映像信号を構成する各画素について、同じ空間座標またはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ各画素毎に信号レベル差を計算し、この差の絶対値に基づき、映像信号を生成する画像演算部とを備え、
前記2つの光学的バンドパスフィルタの中心波長間の差が、
・短波長側の光学的バンドパスフィルタの中心波長が400nm以上500nm以下のときは30nm未満、
・短波長側の光学的バンドパスフィルタの中心波長が500nmを超えて600nm以下のときは60nm未満、
・短波長側の光学的バンドパスフィルタの中心波長が600nmを超えて1300nm以下のときは110nm未満、
となるように、長波長側の光学的バンドパスフィルタの中心波長が決定されている、
ことを特徴としている。
【0031】
また、請求項2では、請求項1に記載の波長選択型カメラ装置において、前記画像演算部は、各撮像素子から出力される各映像信号を取り込んで、各映像信号を構成する各画素について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ2つの画素を選択し、これらのレベル差を計算する差分回路と、この差分回路から出力されるレベル差の絶対値を計算する絶対値回路とを有することを特徴としている。
【0036】
また、請求項では、請求項1または2に記載の波長選択型カメラ装置において、前記各光学的バンドパスフィルタは、中心波長が短くなるほど、各光学的バンドパスフィルタの中心波長の差の絶対値が小さくなることを特徴としている。
【0038】
また、請求項では、撮影動作によって得られた光像を各波長域毎の光像にして、特定の波長の被写体画像を抽出することで海水面または淡水面上の油膜を検出する波長選択型カメラ装置において、撮影動作によって得られた光像を透過/反射して、3つの光像を生成する光学系と、互いに異なる透過波長領域を持ち、前記光学系によって生成された各光像から各波長域の光像を抽出する3つの光学的バンドパスフィルタと、各光学的バンドパスフィルタによって抽出された各波長域毎の光像を光電変換して各波長域の映像信号を生成する3つの撮像素子と、各撮像素子から出力される各波長域の各映像信号を構成する各画素について、同じ空間座標またはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ各画素毎に信号レベル差を計算し、この差の絶対値に基づき、映像信号を生成する画像演算部とを備え、
前記3つの光学的バンドパスフィルタの中心波長をλ1、λ3、λ2(λ1<λ3<λ2)(単位nm)としたとき、
・λ1が400nm以上500nm以下のとき、λ3−λ1が30nm未満、
・λ1が500nmを超えて600nm以下のとき、λ3−λ1が60nm未満、
・λ1が600nmを超えて1300nm以下のとき、λ3−λ1が110nm未満、
となるようにλ3が決定されているとともに、
λ3−λ1<λ2−λ3であって、
・λ3が400nm以上500nm以下のとき、λ2−λ3が30nm未満、
・λ3が500nmを超えて600nm以下のとき、λ2−λ3が60nm未満、
・λ3が600nmを超えて1300nm以下のとき、λ2−λ3が110nm未満、
となるようにλ2が決定されている、
ことを特徴としている。
【0039】
また、請求項では、請求項に記載の波長選択型カメラ装置において、前記画像演算部は、各撮像素子から出力される各映像信号を取り込んで、各映像信号を構成する各画素について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ2つの画素を選択し、これらのレベル差を計算する2つ以上の差分回路と、各差分回路から出力されるレベル差の絶対値を計算する絶対値回路とを有することを特徴としている。
【0044】
また、請求項では、請求項4または5に記載の波長選択型カメラ装置において、前記各光学的バンドパスフィルタは、中心波長が短くなるほど、隣接した2つの光学的バンドパスフィルタの中心波長の差の絶対値が小さくなることを特徴としている。
【0046】
また、請求項では、請求項1乃至6のいずれか1項に記載の波長選択型カメラ装置において、波長選択型カメラ装置の前に、光シャッタを配置し、この光シャッタを動作させて、前記波長選択型カメラ装置に間欠的に光像を供給することを特徴としている。
【0048】
上記の構成において、請求項1では、光学系によって、撮影動作で得られた光像を透過/反射して、2つの光像を生成する。互いに異なる透過波長領域を持つ2つの光学的バンドパスフィルタは、前記光学系で生成された各光像から各波長域の光像を抽出する。2つの撮像素子は、前記各光学的バンドパスフィルタで抽出された各波長域毎の光像を光電変換して各波長域の映像信号を生成する。そして、画像演算部は、各撮像素子から出力される各波長域の各映像信号を構成する各画素について、同じ空間座標またはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ各画素毎に信号レベル差を計算し、この差の絶対値に基づき、映像信号を生成する。これにより、海面からの反射光が強い場合でも、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを確実に見つけ出す。
【0049】
また、請求項2では、画像演算部として、各撮像素子から出力される各映像信号を取り込んで、各映像信号を構成する各画素について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ2つの画素を選択し、これらのレベル差を計算する差分回路と、この差分回路から出力されるレベル差の絶対値を計算する絶対値回路とを有する画像演算部を使用することにより、海面からの反射光が強い場合でも、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを確実に見つけ出す。
【0054】
また、請求項では、各光学的バンドパスフィルタとして、中心波長が短くなるほど、各光学的バンドパスフィルタの中心波長の差の絶対値が小さくなる光学的バンドパスフィルタを使用することにより、海面からの反射光が強い場合でも、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを確実に見つけ出す。
【0056】
また、請求項では、光学系によって、撮影動作で得られた光像を透過/反射して、3つ以上の光像を生成しながら、互いに異なる透過波長領域を持つ3つ以上の光学的バンドパスフィルタによって、前記光学系で生成された各光像から各波長域の光像を抽出する。3つ以上の撮像素子は、各光学的バンドパスフィルタで抽出された各波長域毎の光像を光電変換して各波長域の映像信号を生成する。そして、画像演算部は、各撮像素子から出力される各波長域の各映像信号を構成する各画素について、同じ空間座標またはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ各画素毎に信号レベル差を計算し、この差の絶対値に基づき、映像信号を生成する。これにより、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを確実に見つけ出す。
【0057】
また、請求項では、画像演算部として、各撮像素子から出力される各映像信号を取り込んで、各映像信号を構成する各画素について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ2つの画素を選択し、これらのレベル差を計算する2つ以上の差分回路と、各差分回路から出力されるレベル差の絶対値を計算する絶対値回路とを有する画像演算部を使用することにより、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを確実に見つけ出す。
【0062】
また、請求項では、各光学的バンドパスフィルタとして、中心波長が短くなるほど、隣接した2つの光学的バンドパスフィルタの中心波長の差の絶対値が小さくなる光学的バンドパスフィルタを使用することにより、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを確実に見つけ出す。
【0064】
また、請求項では、波長選択型カメラ装置の前に、光シャッタを配置し、この光シャッタを動作させて、前記波長選択型カメラ装置に間欠的に光像を供給することにより、ヘリコプタや航空機などで、探索範囲の上空を高速で飛行しながら、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化し、遭難現場などを迅速に、かつ確実に見つけ出す。
【0066】
【発明の実施の形態】
《第1の実施の形態の説明》
<第1の実施の形態の基本説明>
図1は本発明による波長選択型カメラ装置の実施の形態のうち、請求項1、2、3に対応する波長選択型カメラ装置の一例を示すブロック図である。なお、この図においては、説明を簡単にするために、本発明の説明に係わらない部分、例えば入射光量を減衰させるアイリスやNDフィルタなど、カメラ装置を構成するのに必要な部品、駆動回路、映像処理回路などにパルス信号を送るパルス発生回路、映像の輪郭を強調する輪郭補償回路、電源回路などを省略してある。
【0067】
この図に示す波長選択型カメラ装置1は、被写体からの光像2を取り込んで、これを波長毎に光電変換して、短波長域の映像信号と長波長域の映像信号とを生成する波長選択光学系3と、この波長選択光学系3から出力される短波長域の映像信号を画像処理して、デジタル化した短波長域の映像信号を生成する短波長側映像処理部4と、前記波長選択光学系3から出力される長波長域の映像信号を画像処理してデジタル化した長波長域の映像信号を生成する長波長側映像処理部5と、この長波長側映像処理部5から出力される長波長域の映像信号と短波長側映像処理部4から出力される短波長域の映像信号との差に基づき、海面や水面などに浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成する差映像抽出部6とを備えており、波長選択光学系3によって、油膜が浮かんだ海面などを撮影して、短波長域の映像信号と、長波長域の映像信号とを生成しながら、短波長側映像処理部4によって短波長域の映像信号を画像処理して、デジタル化した短波長域の映像信号を生成するとともに、長波長側映像処理部5によって長波長側の映像信号を画像処理して、デジタル化した長波長域の映像信号を生成した後、差映像抽出部6によって短波長域の映像信号と、長波長域の映像信号との差を抽出して、水面などに浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成し、これを次段装置(図示は省略する)に供給する。
【0068】
波長選択光学系3は、被写体からの光像(白色の光像)2を取り込んで、所定距離だけ後方に結像させるレンズ7と、図2に示すように、入射面8に入射されたレンズ7からの光像2の半分を反射透過面9で2等分し、この等分処理で得られた一方の光像(反射透過面9を透過した光像)2aを直進させて第2出射面11から出射させるとともに、反射透過面9で45度の角度で反射された他方の光像(光像2aと左右が反転していない光像)2bを全反射面12で全反射させて第1出射面10から出射させるビームスプリッタ13と、波長λ1を中心波長とするバンドパスフィルタリング特性で、ビームスプリッタ13の第1出射面10から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ14と、CCD、MOS、CPD、SIT、AMIなど、シリコンを用いた固体撮像素子またはGaAs、InGaAsなど赤外線領域で高い感度を示す材料を用いた固体撮像素子、または非晶質セレンなど、紫外線や短波長可視光で高い感度を示す材料を用いた固体撮像素子、あるいはプランビコン、サチコン、ビジコン、カルニコン、ハーピコンなどの撮像管のいずれかによって構成され、レンズ7との間の光路長が所定距離となる位置に配置されて、光学的バンドパスフィルタ14から出射される光像を光電変換し、映像信号を生成する撮像素子15とを備えている。
【0069】
さらに、波長選択光学系3は、波長λ2を中心波長とするバンドパスフィルタリング特性で、ビームスプリッタ13の第2出射面11から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ16と、CCD、MOS、CPD、SIT、AMIなど、シリコンを用いた固体撮像素子またはGaAs、InGaAsなど赤外線領域で高い感度を示す材料を用いた固体撮像素子、または非晶質セレンなど、紫外線や短波長可視光で高い感度を示す材料を用いた固体撮像素子、あるいはプランビコン、サチコン、ビジコン、カルニコン、ハーピコンなどの撮像管のいずれかによって構成され、レンズ7との間の光路長が所定距離(レンズ7と撮像素子15との距離と同じ距離)となる位置に配置されて、光学的バンドパスフィルタ16から出射される光像を光電変換し、映像信号を生成する撮像素子17とを備えている。
【0070】
この場合、被写体の上層側が空気(屈折率n1=1)、下層が表1(理科年表から引用した表)に示すような屈折率分散を持つ淡水であれば、淡水からの反射率の差が1%以下になるように、表2に示す如く各光学的バンドパスフィルタ14、16の透過波長領域が短波長域側にシフトするほど、光学的バンドパスフィルタ14の中心波長λ1と、光学的バンドパスフィルタ16の中心波長λ2と差の絶対値|λ1−λ2|が小さくなるように、光学的バンドパスフィルタ14の中心波長λ1の値と、光学的バンドパスフィルタ16の中心波長λ2の値とが決められる。なお、表2に示す値はあくまでも目安であり、各光学的バンドパスフィルタ14、16の中心波長λ1、λ2が各数値から多少、外れていても良い。
【0071】
【表1】
Figure 0003772016
【表2】
Figure 0003772016
【0072】
そして、ビームスプリッタ13によって、被写体からの光像2を取り込んで、これを2等分し、一方の光学的バンドパスフィルタ14によってビームスプリッタ13から出射される一方の光像2bをバンドパスフィルタリングして、短波長域の光像(波長λ1を中心とする波長範囲の光像)を抽出するとともに、一方の撮像素子15によって光学的バンドパスフィルタ14から出射される光像を光電変換し、これによって得られた映像信号を短波長側映像処理部4に供給し、さらに他方の光学的バンドパスフィルタ16によってビームスプリッタ13から出射される他方の光像2aをバンドパスフィルタリングして、長波長域の光像(波長λ2を中心とする波長範囲の光像)を抽出するとともに、他方の撮像素子17によって光学的バンドパスフィルタ16から出射される光像を光電変換し、これによって得られた映像信号を長波長側映像処理部5に供給する。
【0073】
短波長側映像処理部4は、波長選択光学系3から出力される短波長域の映像信号を一定の増幅率で増幅するヘッドアンプ回路18と、このヘッドアンプ回路18から出力される映像信号に対し、予め設定されている画像処理、例えば各撮像素子感度のバラツキ補償、各光学的バンドパスフィルタ14、16の透過領域補償、各光学的バンドパスフィルタ14、16の透過率補償などを行なう映像処理回路19と、この映像処理回路19から出力される映像信号をA/D変換して、デジタル化された映像信号を生成するA/D変換回路20とを備えており、波長選択光学系3から出力される短波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ14、16の透過領域補償処理、各光学的バンドパスフィルタ14、16の透過率補償処理などを行ない、これによって得られた映像信号をデジタル化して、差映像抽出部6に供給する。
【0074】
また、長波長側映像処理部5は、波長選択光学系3から出力される長波長域の映像信号を一定の増幅率で増幅するヘッドアンプ回路21と、このヘッドアンプ回路21から出力される映像信号に対し、予め設定されている画像処理、例えば各撮像素子感度のバラツキ補償、各光学的バンドパスフィルタ14、16の透過領域補償、各光学的バンドパスフィルタ14、16の透過率補償などを行なう映像処理回路22と、この映像処理回路22から出力される映像信号をA/D変換して、デジタル化された映像信号を生成するA/D変換回路23とを備えており、波長選択光学系3から出力される長波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ14、16の透過領域補償処理、各光学的バンドパスフィルタ14、16の透過率補償処理などを行ない、これによって得られた映像信号をデジタル化して、差映像抽出部6に供給する。
【0075】
この場合、短波長側映像処理部4を構成する映像処理回路19と、長波長側映像処理部5を構成する映像処理回路22とを調整する方法として、例えば白紙など、反射率が一定した被写体を撮影した状態で、一方のA/D変換回路20から出力される映像信号と、他方のA/D変換回路23から出力される映像信号とが等しくなるように、各映像処理回路19、22の補償定数などが調整される。
【0076】
差映像抽出部6は、短波長側映像処理部4から出力されるデジタル化された映像信号と長波長側映像処理部5から出力されるデジタル化された映像信号とを取り込んで、各映像信号に含まれている各画素のうち、同じ空間座標の各画素またはレジストレーション調整後の誤差範囲内の近さを持つ空間座標となる各画素同士のレベル差を演算して各映像信号の差を示す映像信号を生成する差分回路24と、この差分回路24から出力される映像信号の絶対値を演算する絶対値回路25と、この絶対値回路25から出力されるデジタル信号形式の映像信号をアナログ信号形式の映像信号に変換するD/A変換回路26と、このD/A変換回路26から出力される映像信号を増幅する増幅回路27とを備えており、長波長側映像処理部5から出力される長波長域の映像信号と、短波長側映像処理部4から出力される短波長域の映像信号とを取り込んで、各画素単位でレベル差を演算し、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成し、これを次段装置に供給する。
【0077】
次に、図1に示すブロック図および図3に示すグラフを参照しながら、この実施の形態の動作について説明する。
【0078】
まず、波長選択型カメラ装置1によって、油膜が浮かんだ海面などを撮影すると、波長選択型カメラ装置1内に設けられている波長選択光学系3のビームスプリッタ13によって、被写体からの光像2が2等分された後、一方の光学的バンドパスフィルタ14によってビームスプリッタ13から出射される一方の光像2bがバンドパスフィルタリングされて、短波長域の光像(波長λ1を中心とする波長範囲の光像)が抽出されるとともに、一方の撮像素子15によって光学的バンドパスフィルタ14から出射される光像が光電変換され、これによって得られた映像信号が短波長側映像処理部4に供給される。
【0079】
そして、この短波長側映像処理部4によって、波長選択光学系3から出力される短波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ14、16の透過領域補償処理、各光学的バンドパスフィルタ14、16の透過率補償処理などが行なわれ、これによって得られた映像信号がデジタル化されて、差映像抽出部6に供給される。
【0080】
また、この動作と並行し、他方の光学的バンドパスフィルタ16によって、ビームスプリッタ13から出射される他方の光像2aがバンドパスフィルタリングされて、長波長域の光像(波長λ2を中心とする波長範囲の光像)が抽出されるとともに、一方の撮像素子17によって光学的バンドパスフィルタ16から出射される光像が光電変換され、これによって得られた映像信号が長波長側映像処理部5に供給され、この長波長側映像処理部5によって、波長選択光学系3から出力される長波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ14、16の透過領域補償処理、各光学的バンドパスフィルタ14、16の透過率補償処理などが行なわれ、これによって得られた映像信号がデジタル化されて、差映像抽出部6に供給される。
【0081】
そして、この差映像抽出部6によって、長波長側映像処理部5から出力される長波長域の映像信号と、短波長側映像処理部4から出力される短波長域の映像信号とが取り込まれて、各画素単位でレベル差が演算され、これによって水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号が生成され、次段装置に供給される。
【0082】
この際、厳密には、海水の屈折率分散により反射率が変化するもの、表1に示すような水の屈折率分散例から分かるように、その変化量が非常に小さいことから、表2の上段に示す波長領域のとき、水の屈折率分散を無視しても良く、また図3(a)〜(e)に示すように、油面の無い海面の反射率が波長依存性を殆ど持たないことから、図3(f)に示すように、最下段に記載された2つの光学的バンドパスフィルタ(両者の中心波長λ1、λ2の差が50nmであり、表2の条件を満足する)14、16を用いて、油面が無い海水面を撮影したとき、短波長側映像処理部4から出力される映像信号と、長波長側映像処理部5から出力される映像信号とが画素単位で同じレベルになって、差映像抽出部6からゼロを示す映像信号が出力される。
【0083】
一方、図3(a)〜(e)に示すように、油膜がある海水では、入射角度がどのような角度でも、波長に応じて油膜の反射率が大きく変化するものの、2つの光学的バンドパスフィルタ14、16の中心波長λ1、λ2の透過率(最大透過率)に対し、1/e以上の透過率を持つ波長領域(図3のA〜Bの領域、B〜Cの領域)に限ぎると、一方の光学的バンドパスフィルタ14の波長領域(図3のA〜Bの領域)の反射率と、他方の光学的バンドパスフィルタ16の波長領域(図3のB〜Cの領域)の反射率とが異なっていることから、油面がある海水面を撮影したとき、短波長側映像処理部4から出力される映像信号と、長波長側映像処理部5から出力される映像信号とが異なるレベルになって、差映像抽出部6から油膜を示す映像信号が出力される。
【0084】
また、極めて稀に、油膜がある海面を撮影したとき、特定の入射角度からの光が入射されて、短波長側映像処理部4から出力される映像信号と、長波長側映像処理部5から出力される映像信号とが一致することも考えられるが、このような場合でも、波や風などによって海面が常に変動し、海面が鏡面状態のときの入射角度よりも、多様な入射角度からの光像が波長選択型カメラ装置1に取り込まれることから、特定の入射角度で反射率が同じレベルになっても、他の入射角度で反射率が異なるレベルになることから、差映像抽出部6から油膜を示す映像信号が出力される。
【0085】
このように、この実施の形態では、波長選択光学系3によって、油膜が浮かんだ海面などを撮影して、短波長域の映像信号と、長波長域の映像信号とを生成しながら、短波長側映像処理部4によって短波長域の映像信号を画像処理して、デジタル化した短波長域の映像信号を生成するとともに、長波長側映像処理部5によって短波長域の映像信号を画像処理して、デジタル化した長波長域の映像信号を生成した後、差映像抽出部6によって短波長域の映像信号と、長波長域の映像信号との差を抽出して、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成し、これを次段装置に供給するようにしているので、従来、検出が困難であった水面上の油膜や有機膜などを高いコントラストで画像として、検出することができる。
【0086】
これによって、従来、ヘリコプタや航空機などから目視観察で遭難現場などの探索が困難な場合、例えば海からの反射光が強い場合(逆光状態)、雨天の場合、波浪が高い場合などでも、海面の状態に関わらず、遭難した航空機や船舶などの油膜が海面上に浮いているとき、これを確実に検出して、遭難現場などを見つけ出すことができる。
【0087】
また、この実施の形態では、撮影した海面などに油膜や有機膜などがあるときにのみ、差映像抽出部6から出力される映像信号がゼロ以外の値になるようにしているので、差映像抽出部6から出力される映像信号を次段装置などに設けられた判定回路に導き、予め設定されているしきい値を越えているかどうかを判定させるだけで、遭難現場の探索を容易に自動化することができる。これによって、ヘリコプタや航空機などに、図1に示す波長選択型カメラ装置1を複数、搭載し、各波長選択型カメラ装置1によって、全方位を同時に探索させて、油膜などの有無を自動判定させれば、従来の目視による場合に比べて、格段に探索効率を向上させて、迅速な災害救助を行なうことができる。
【0088】
また、図1に示す波長選択型カメラ装置1と、GPS(Global Positioning System)装置とを組み合わせることにより、油膜の位置を瞬時に決定することができ、これによって遭難現場などの発見を一層、迅速化させることができるとともに、タンカーなどの原油流出状況をリアルタイムで、容易に地図化することができる。
【0089】
<第1の実施の形態の第1変形例の説明>
また、図1に示す波長選択型カメラ装置1では、レンズ7からの光像2をビームスプリッタ13の反射透過面9で2等分し、一方の光像(反射透過面9を透過した光像)2aを直進させて第2出射面11から出射させるとともに、反射透過面9で45度の角度で反射され、全反射面12によってさらに45度の角度で全反射された他方の光像(光像2aと左右が反転していない光像)2bを第1出射面10から出射させて、被写体からの光像2を2等分するようにしているが、このようなビームスプリッタ13に代えて、図4に示すようなビームスプリッタ28を使用するようにしても良い。
【0090】
この図に示すビームスプリッタ28は、入射面29に入射されたレンズ7からの光像2を45度より小さい入射角度αで反射透過面30に入射させ、この反射透過面30を透過した光像2cを直進させて第2出射面32から出射させるとともに、反射透過面30で反射された光像2dを45度の角度より大きな入射角度βで全反射面86に入射させ、全反射された光像(光像2cと左右が反転していない光像)2dを第1出射面31から出射させる。
【0091】
このように、このビームスプリッタ28を使用しても、レンズ7からの光像を左右が反転されていない2つの光像2c、2dに2等分して、各光学的バンドパスフィルタ14、16に各々、入射させ、各撮像素子15、17上に結像させることができる。
【0092】
勿論、このビームスプリッタ28でも、レンズ7と一方の撮像素子15との間の光路長と、レンズ7と他方の撮像素子17との間の光路長とが同じくなるように、ビームスプリッタ28内の各光路長が設定される。
【0093】
<第1の実施の形態の第2変形例の説明>
また、図1に示す波長選択型カメラ装置1では、1つのビームスプリッタ13と、2つの光学的バンドパスフィルタ14、16と、2つの撮像素子15、17によって構成される波長選択光学系3を使用するようにしているが、図5に示すように、プリズム型バンドパスフィルタ33と、2つの撮像素子34、35とによって構成される波長選択光学系36を使用するようにしても良い(請求項5、6の内容)。
【0094】
この場合、プリズム型バンドパスフィルタ36は、前面37側が45度にカットされたプリズム38と、前面39(後面40)と斜面41、42とのなす角度が45度、135度になるようにカットされた並行四辺形型のプリズム43と、このプリズム43の斜面42とプリズム38の前面37との接合面に配置され、図6、図7に示すようなローパス特性で、入射した光像2を構成する長波長の光を透過させるとともに、短波長の光を反射させる光学的ローパスフィルタ44と、プリズム38の出射面45に接合され、図6に示すように、光学的ローパスフィルタ44の透過波長特性のカットオフ波長λ44(但し、ここでは、光学的ローパスフィルタ44の透過率が最大透過率の50%になる波長をカットオフ波長と定義する)より長波長側にシフトしたカットオフ波長特性を持ち、光学的ローパスフィルタ44を透過した長波長光のうち、カットオフ波長λ46より短い波長の光(斜線部分の光)を透過させる光学的ハイパスフィルタ46と、プリズム43の出射面47(後面40)に接合され、図7に示すように、光学的ローパスフィルタ44の反射波長特性のカットオフ波長λ44より短波長側にシフトしたカットオフ波長λ48を持ち、光学的ローパスフィルタ44で反射された短波長光のうち、カットオフ波長λ48より長い波長の光(斜線部分の光)を透過させる光学的ローパスフィルタ48とを備えている。
【0095】
勿論、このプリズム型バンドパスフィルタ33でも、レンズ7と一方の撮像素子34との間の光路長と、レンズ7と他方の撮像素子35との間の光路長とが同じくなるように、プリズム型バンドパスフィルタ33内の各光路長が設定される。
【0096】
そして、レンズ7からの光像2が入射面49(前面39)に入射したとき、光学的ローパスフィルタ44のフィルタリング動作、光学的ハイパスフィルタ46のフィルタリング動作によって、光像2を構成する各波長のうち、図6に示すように、波長λbを中心とする長波長領域の光像を選択して、これを一方の撮像素子35に入射させ、長波長域の映像信号を生成させるとともに、光学的ローパスフィルタ44のフィルタリング動作、光学的ローパスフィルタ48のフィルタリング動作によって、光像2を構成する各波長のうち、図7に示すように、波長λa(但し、|λa−λb|は表2を満たす値)を中心とする短波長領域の光像を選択して、これを他方の撮像素子34に入射させ、短波長域の映像信号を生成させる。
【0097】
このように、プリズム型バンドパスフィルタ33と、2つの撮像素子34、35とによって構成される波長選択光学系36を使用しても、レンズ7からの光像2を左右が反転されていない2つの光像に2等分して、長波長域の映像信号と、短波長域の映像信号とを生成することができる。
【0098】
<第1の実施の形態の第3変形例の説明>
また、図5に示す変形例では、プリズム型バンドパスフィルタ33と、2つの撮像素子34、35とによって波長選択光学系36を構成するようにしているが、図8に示すように、プリズム型ローパスフィルタ50と、光学的ローパスフィルタ51と、光学的ハイパスフィルタ52と、2つの撮像素子53、54とによって波長選択光学系55を構成し、この波長選択光学系55を使用して光像2を波長弁別して、短波長域の映像信号と、長波長域の映像信号とを生成するようにしても良い(請求項5の内容)。
【0099】
この場合、プリズム型ローパスフィルタ50は、前面56側が45度にカットされたプリズム57と、前面58(後面59)と斜面60、61とのなす角度が45度、135度になるようにカットされた並行四辺形型のプリズム62と、このプリズム62の斜面61とプリズム57の前面56との接合面に配置され、図5に示す光学的ローパスフィルタ44と同じローパス特性で、入射した光像2を構成する長波長の光を透過させるとともに、短波長の光を反射させる光学的ローパスフィルタ63とを備えており、入射面64にレンズ7からの光像2が入射したとき、光学的ローパスフィルタ63のフィルタリング動作によって、光像2中の長波長の光を透過させ、これを出射面65から出射させて、光学的ハイパスフィルタ52に入射させるとともに、光学的ローパスフィルタ63によって光像2中の短波長の光を反射させた後、これを全反射面66で反射させて、出射面67から出射させ、光学的ローパスフィルタ51に入射させる。
【0100】
光学的ローパスフィルタ51は、図5に示す光学的ローパスフィルタ48と同様なローパス特性(図7に示すローパス特性)を持つフィルタ板によって構成されており、プリズム型ローパスフィルタ50の出射面67から出射される短波長域の光像を構成する各波長のうち、図7に示すように、波長λaを中心とする短波長領域の光像を選択して、これを一方の撮像素子53に入射させ、短波長域の映像信号を生成させる。
【0101】
また、光学的ハイパスフィルタ52は、図5に示す光学的ハイパスフィルタ46と同様なハイパス特性(図6に示すハイパス特性)を持つフィルタ板によって構成されており、プリズム型ローパスフィルタ50の出射面65から出射される長波長域の光像を構成する各波長のうち、図6に示すように、波長λbを中心とする長波長領域の光像を選択して、これを他方の撮像素子54に入射させ、長波長域の映像信号を生成させる。
【0102】
このように、プリズム型ローパスフィルタ50と、光学的ローパスフィルタ51と、光学的ハイパスフィルタ52と、2つの撮像素子53、54とによって構成される波長選択光学系55を使用しても、レンズ7からの光像2を波長弁別して、短波長域の映像信号と、長波長域の映像信号とを生成することができる。
【0103】
<第1の実施の形態の第4変形例の説明>
また、図8に示す変形例では、プリズム型ローパスフィルタ50と、光学的ローパスフィルタ51と、光学的ハイパスフィルタ52と、2つの撮像素子53、54とによって波長選択光学系55を構成するようにしているが、図9に示すように、プリズム型ローパスフィルタ68と、2つの光学的バンドパスフィルタ69、70と、2つの撮像素子71、72とによって波長選択光学系73を構成し、この波長選択光学系73を使用して、光像2を波長弁別して、短波長域の映像信号と、長波長域の映像信号とを生成するようにしても良い(請求項5の内容)。
【0104】
この場合、プリズム型ローパスフィルタ68は、前面74側が45度にカットされたプリズム75と、前面76(後面77)と斜面78、79とのなす角度が45度、135度になるようにカットされた並行四辺形型のプリズム80と、このプリズム80の斜面79とプリズム75の前面74との接合面に配置され、図8に示す光学的ローパスフィルタ63と同じローパス特性で、入射した光像2を構成する長波長の光を透過させるとともに、短波長の光を反射させる光学的ローパスフィルタ81とを備えており、入射面82にレンズ7からの光像2が入射したとき、光学的ローパスフィルタ81のフィルタリング動作によって、光像2中の長波長の光を透過させ、これを出射面83から出射させて、一方の光学的バンドパスフィルタ70に入射させるとともに、光学的ローパスフィルタ81によって光像2中の短波長の光を反射させた後、これを全反射面84で反射させて、出射面85から出射させ、他方の光学的バンドパスフィルタ69に入射させる。
【0105】
また、光学的バンドパスフィルタ70は、図10に示すように、光学的ローパスフィルタ81のローパスフィルタリング特性によって選択された長波長域の光像中から波長λdを中心として、所定領域に含まれる長波長の光を抽出するバンドパス特性を持つフィルタ板によって構成されており、プリズム型ローパスフィルタ68の出射面83から出射される長波長域の光像を構成する各波長のうち、図10に示すように、波長λdを中心とする所定波長領域の光像を選択して、これを一方の撮像素子72に入射させ、長波長域の映像信号を生成させる。
【0106】
また、光学的バンドパスフィルタ69は、図11に示すように、光学的ローパスフィルタ81のローパスフィルタリング特性によって選択された短波長域の光像中から波長λcを中心として、所定領域に含まれる短波長の光を抽出するバンドパス特性を持つフィルタ板によって構成されており、プリズム型ローパスフィルタ68の出射面85から出射される短波長域の光像を構成する各波長のうち、図11に示すように、波長λcを中心とする所定波長領域の光像を選択して、これを他方の撮像素子71に入射させ、短波長域の映像信号を生成させる。
【0107】
このように、プリズム型ローパスフィルタ68と、2つの光学的バンドパスフィルタ69、70と、2つの撮像素子71、72とによって波長選択光学系73を構成し、この波長選択光学系73を使用しても、光像2を波長弁別して、短波長域の映像信号と、長波長域の映像信号とを生成することができる。
【0108】
《発明の第2の実施の形態の説明》
<第2の実施の形態の基本説明>
図12は本発明による波長選択型カメラ装置の一実施の形態のうち、請求項4、5、6に対応する波長選択型カメラ装置の一例を示すブロック図である。なお、この図においては、説明を簡単にするために、本発明の説明に係わらない部分、例えば入射光量を減衰させるアイリスやNDフィルタなど、カメラ装置を構成するのに必要な部品、駆動回路、映像処理回路などにパルス信号を送るパルス発生回路、映像の輪郭を強調する輪郭補償回路、電源回路などを省略してある。
【0109】
この図に示す波長選択型カメラ装置100は、被写体からの光像101を取り込んで、これを波長毎に光電変換して、短波長域の映像信号と中波長域の映像信号と長波長域の映像信号とを生成する波長選択光学系102と、この波長選択光学系102から出力される短波長域の映像信号を画像処理して、デジタル化した短波長域の映像信号を生成する短波長側映像処理部103と、波長選択光学系102から出力される中波長域の映像信号を画像処理して、デジタル化した中波長域の映像信号を生成する中波長側映像処理部104と、波長選択光学系102から出力される長波長域の映像信号を画像処理してデジタル化した長波長域の映像信号を生成する長波長側映像処理部105と、中波長側映像処理部104から出力される中波長域の映像信号を基準として、長波長側映像処理部105から出力される長波長域の映像信号と短波長側映像処理部103から出力される短波長域の映像信号との差を演算して、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成する差映像抽出部106とを備えている。
【0110】
そして、波長選択光学系102によって、油膜が浮かんだ海面などを撮影して、短波長域の映像信号と、中波長域の映像信号と、長波長域の映像信号とを生成ししながら、短波長側映像処理部103、中波長側映像処理部104、長波長側映像処理部105によって短波長域の映像信号、中波長域の映像信号、短波長域の映像信号を各々、デジタル化した後、差映像抽出部106によって短波長域の映像信号と、中波長域の映像信号、長波長域の映像信号との間の差を抽出して、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成し、これを次段装置(図示は省略する)に供給する。
【0111】
波長選択光学系102は、被写体からの光像(白色の光像)101を取り込んで、所定距離だけ後方に結像させるレンズ107と、1つの入射面108と2つの全反射面109、110と第1出射面111、第2出射面112および第3出射面113とを有するプリズム114、このプリズム114内に配置され、図13に示すように、入射面108に入射された光像101を構成する長波長域の光、中波長域の光を透過させ、それ以外の光(短波長域の光)を反射させる光学的ローパスフィルタ115、プリズム114内に配置され、光学的ローパスフィルタ115を透過した長波長域の光、中波長域の光のうち、長波長域の光(長波長域の光)を透過させるとともに、それ以外の光(中波長域の光)を反射させる光学的ローパスフィルタ116によって構成され、第1出射面111、第2出射面112、第3出射面113から短波長域の光像、長波長域の光像、中波長域の光像を各々、出射させる分岐素子123と、図14に示すように、波長λ1(この波長λ1は、光学的ローパスフィルタ115のカットオフ波長より短波長側にある波長)を中心波長とするバンドパスフィルタリング特性で分岐素子123の第1出射面111から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ117と、CCD、MOS、CPD、SIT、AMIなど、シリコンを用いた固体撮像素子またはGaAs、InGaAsなど赤外線領域で高い感度を示す材料を用いた固体撮像素子、または非晶質セレンなど、紫外線や短波長可視光で高い感度を示す材料を用いた固体撮像素子、あるいはプランビコン、サチコン、ビジコン、カルニコン、ハーピコンなどの撮像管などのいずれかによって構成され、レンズ107との間の光路長が所定距離となる位置に配置されて、光学的バンドパスフィルタ117から出射される光像を光電変換し、映像信号を生成する撮像素子120とを備えている。
【0112】
さらに、波長選択光学系102は、図15に示すように、波長λ2(この波長λ2は、光学的ローパスフィルタ116のカットオフ波長より長波長側にある波長)を中心波長とするバンドパスフィルタリング特性で分岐素子123の第2出射面112から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ118と、CCD、MOS、CPD、SIT、AMIなど、シリコンを用いた固体撮像素子またはGaAs、InGaAsなど赤外線領域で高い感度を示す材料を用いた固体撮像素子、または非晶質セレンなど、紫外線や短波長可視光で高い感度を示す材料を用いた固体撮像素子、あるいはプランビコン、サチコン、ビジコン、カルニコン、ハーピコンなどの撮像管などのいずれかによって構成され、レンズ107との間の光路長が所定距離(レンズ107と撮像素子120との距離と同じ距離)となる位置に配置されて、光学的バンドパスフィルタ116から出射される光像を光電変換し、映像信号を生成する撮像素子121と、図16に示すように、波長λ3(この波長λ3は、光学的ローパスフィルタ116のカットオフ波長より短波長側にある波長)を中心波長とするバンドパスフィルタリング特性で分岐素子123の第3出射面113から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ119と、CCD、MOS、CPD、SIT、AMIなど、シリコンを用いた固体撮像素子またはGaAs、InGaAsなど赤外線領域で高い感度を示す材料を用いた固体撮像素子、または非晶質セレンなど、紫外線や短波長可視光で高い感度を示す材料を用いた固体撮像素子、あるいはプランビコン、サチコン、ビジコン、カルニコン、ハーピコンなどの撮像管などのいずれかによって構成され、レンズ107との間の光路長が所定距離(レンズ107と撮像素子120との距離と同じ距離)となる位置に配置されて、光学的バンドパスフィルタ119から出射される光像を光電変換し、映像信号を生成する撮像素子122とを備えている。
【0113】
この場合、各光学的バンドパスフィルタ117、118、119の各中心波長λ1、λ2、λ3の間に、λ1<λ3<λ2が成り立つように、各光学的バンドパスフィルタ117、118、119の各中心波長λ1、λ2、λ3の数値が決定される。さらに、被写体の上層側が空気(屈折率n1=1)、下層が表1に示すような屈折率分散を持つ淡水であれば、下層の屈折率分散の影響を小さくして、淡水からの反射率の差が小さくなるように、光学的バンドパスフィルタ117の中心波長λ1と光学的バンドパスフィルタ119の中心波長λ3と差の絶対値|λ1−λ3|と、光学的バンドパスフィルタ119の中心波長λ3と光学的バンドパスフィルタ118の中心波長λ2と差の絶対値|λ3−λ2|とが|λ1−λ3|<|λ3−λ2|となるように、各光学的バンドパスフィルタ117、118、119の透過中心波長λ1、λ2、λ3の各数値が決められる。なお、各波長λ1、λ2、λ3の値はあくまでも目安であり、各光学的バンドパスフィルタ117、118、119の中心波長λ1、λ2、λ3が各数値から多少、外れていても良い。
【0114】
そして、分岐素子123によって、被写体からの光像101を取り込んで、短波長域の光像と、中波長域の光像と、長波長域の光像とに分離した後、各光学的バンドパスフィルタ117、118、119によって、短波長域の光像、中波長域の光像、長波長域の光像に各々、含まれている波長λ1を中心波長とする所定波長範囲の光像、波長λ2を中心波長とする所定波長範囲の光像、波長λ3を中心波長とする所定波長範囲の光像を抽出するとともに、各撮像素子120、121、122によって各光像を各々、光電変換し、これによって得られた短波長域の映像信号、中波長域の映像信号、長波長域の映像信号を短波長側映像処理部103と、中波長側映像処理部104と、長波長側映像処理部105とに各々、供給する。
【0115】
短波長側映像処理部103は、波長選択光学系102から出力される短波長域の映像信号を一定の増幅率で増幅するヘッドアンプ回路124と、このヘッドアンプ回路124から出力される映像信号に対し、予め設定されている画像処理、例えば各撮像素子感度のバラツキ補償、各光学的バンドパスフィルタ117、118、119の透過領域補償、各光学的バンドパスフィルタ117、118、119の透過率補償などを行なう映像処理回路125と、この映像処理回路125から出力される映像信号をA/D変換して、デジタル化された映像信号を生成するA/D変換回路126とを備えており、波長選択光学系102から出力される短波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ117、118、119の透過領域補償処理、各光学的バンドパスフィルタ117、118、119の透過率補償処理などを行ない、これによって得られた映像信号をデジタル化して、差映像抽出部106に供給する。
【0116】
また、中波長側映像処理部104は、波長選択光学系102から出力される中波長域の映像信号を一定の増幅率で増幅するヘッドアンプ回路127と、このヘッドアンプ回路127から出力される映像信号に対し、予め設定されている画像処理、例えば各撮像素子感度のバラツキ補償、各光学的バンドパスフィルタ17、118、119の透過領域補償、各光学的バンドパスフィルタ117、118、119の透過率補償などを行なう映像処理回路128と、この映像処理回路128から出力される映像信号をA/D変換して、デジタル化された映像信号を生成するA/D変換回路129とを備えており、波長選択光学系102から出力される中波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ117、118、119の透過領域補償処理、各光学的バンドパスフィルタ117、118、119の透過率補償処理などを行ない、これによって得られた映像信号をデジタル化して、差映像抽出部106に供給する。
【0117】
また、長波長側映像処理部105は、波長選択光学系102から出力される長波長域の映像信号を一定の増幅率で増幅するヘッドアンプ回路130と、このヘッドアンプ回路130から出力される映像信号に対し、予め設定されている画像処理、例えば各撮像素子感度のバラツキ補償、各光学的バンドパスフィルタ117、118、119の透過領域補償、各光学的バンドパスフィルタ117、118、119の透過率補償などを行なう映像処理回路131と、この映像処理回路131から出力される映像信号をA/D変換して、デジタル化された映像信号を生成するA/D変換回路132とを備えており、波長選択光学系102から出力される長波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ117、118、119の透過領域補償処理、各光学的バンドパスフィルタ117、118、119の透過率補償処理などを行ない、これによって得られた映像信号をデジタル化して、差映像抽出部106に供給する。
【0118】
この場合、短波長側映像処理部103を構成する映像処理回路125と、中波長側映像処理部104を構成する映像処理回路128と、長波長側映像処理部105を構成する映像処理回路131とを調整する方法として、例えば白紙など、反射率が一定した被写体を撮影した状態で、各A/D変換回路126、129、132から出力される映像信号が等しくなるように、各映像処理回路125、128、131の補償定数などが調整される。
【0119】
差映像抽出部106は、中波長側映像処理部104から出力されるデジタル化された映像信号と短波長側映像処理部103から出力されるデジタル化された映像信号とを取り込んで、各映像信号に含まれている各画素のうち、同じ空間座標の各画素またはレジストレーション調整後の誤差範囲内の近さを持つ空間座標となる各画素同士のレベル差を演算して各映像信号の差を示す映像信号を生成する短波長側差分回路133と、この短波長側差分回路133から出力される映像信号の絶対値を演算する短波長側絶対値回路134と、中波長側映像処理部104から出力されるデジタル化された映像信号と長波長側映像処理部105から出力されるデジタル化された映像信号とを取り込んで、各映像信号に含まれている各画素のうち、同じ空間座標の各画素またはレジストレーション調整後の誤差範囲内の近さを持つ空間座標となる各画素同士のレベル差を演算して各映像信号の差を示す映像信号を生成する長波長側差分回路135と、この長波長側差分回路135から出力される映像信号の絶対値を演算する長波長側絶対値回路136と、この長波長側絶対値回路136から出力されるデジタル信号形式の映像信号と短波長側絶対値回路134から出力されるデジタル信号形式の映像信号とを加算して、1つの映像信号を生成する加算回路137と、この加算回路137から出力されるデジタル信号形式の映像信号をアナログ信号形式の映像信号に変換するD/A変換回路138と、このD/A変換回路138から出力される映像信号を増幅する増幅回路139とを備えている。
【0120】
そして、短波長側映像処理部103から出力される短波長域の映像信号と、中波長側映像処理部104から出力れさる中波長域の映像信号と、長波長側映像処理部105から出力される長波長域の映像信号とを取り込んで、中波長域の映像信号の各画素と、短波長域の映像信号の各画素とのレベル差を演算するとともに、中波長域の映像信号の各画素と、長波長域の映像信号の各画素とのレベル差を演算した後、各レベル差を加算して、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成し、これを次段装置に供給する。
【0121】
次に、図12に示すブロック図を参照しながら、この実施の形態の動作について説明する。
【0122】
まず、波長選択型カメラ装置100によって、油膜が浮かんだ海面などを撮影すると、波長選択型カメラ装置100内に設けられている波長選択光学系102の分岐素子123によって、被写体からの光像101が取り込まれて、短波長域の光像と、中波長域の光像と、長波長域の光像とに分離された後、各光学的バンドパスフィルタ117、118、119によって、短波長域の光像、中波長域の光像、長波長域の光像に各々、含まれている波長λ1を中心波長とする所定波長範囲の光像、波長λ2を中心波長とする所定波長範囲の光像、波長λ3を中心波長とする所定波長範囲の光像が抽出されるとともに、各撮像素子120、121、122によって各光像が各々、光電変換され、これによって得られた短波長域の映像信号、中波長域の映像信号、長波長域の映像信号が短波長側映像処理部103と、中波長側映像処理部104と、長波長側映像処理部105とに各々、供給される。
【0123】
そして、この短波長側映像処理部103、中波長側映像処理部104、長波長側映像処理部105によって波長選択光学系102から出力される短波長域の映像信号、中波長域の映像信号、長波長域の映像信号に対し、前置増幅処理、各撮像素子感度のバラツキ補償処理、各光学的バンドパスフィルタ117、118、119の透過領域補償処理、各光学的バンドパスフィルタ117、118、119の透過率補償処理などが行なわれ、これによって得られた短波長域の映像信号、中波長域の映像信号、長波長域の映像信号が各々、デジタル化されて、差映像抽出部106に供給される。
【0124】
次いで、この差映像抽出部106によって、短波長側映像処理部103から出力される短波長域の映像信号と、中波長側映像処理部104から出力れさる中波長域の映像信号と、長波長側映像処理部105から出力される長波長域の映像信号とが取り込まれ、中波長域の映像信号の各画素と、短波長域の映像信号の各画素とのレベル差が演算されるとともに、中波長域の映像信号の各画素と、長波長域の映像信号の各画素とのレベル差が演算された後、各レベル差が加算されて、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号が生成され、これが次段装置に供給される。
【0125】
この際、厳密には、海水の屈折率分散により反射率が変化するもの、表1に示す水の屈折率分散例から分かるように、その変化量が非常に小さいことから、波長領域のとき、水の屈折率分散を無視しても良く、また油面の無い海面の反射率が波長依存性を殆ど持たないことから、3つの光学的バンドパスフィルタ117、118、119を用いて、油面が無い海水面を撮影したとき、短波長側映像処理部103から出力される映像信号と、中波長側映像処理部104から出力される映像信号と、長波長側映像処理部105から出力される映像信号とが同じレベルになって、差映像抽出部106からゼロを示す映像信号が出力される。
【0126】
一方、油膜がある海水では、入射角度がどのような角度でも、波長応じて油膜の反射率が大きく変化するものの、3つの光学的バンドパスフィルタ117、118、119の中心波長λ1、λ2、λ3の透過率(最大透過率)の1/e以上の透過率を持つ波長領域に限ぎると、各光学的バンドパスフィルタ117、118、119の波長領域のうち、少なくとも2つの波長領域の光強度が異なることから、油面がある海水面を撮影したとき、短波長側映像処理部103から出力される映像信号、中波長側映像処理部104から出力される映像信号、長波長側映像処理部105から出力される映像信号のうち、2つの映像信号が異なるレベルになって、差映像抽出部106から油膜を示す映像信号が出力される。
【0127】
また、極めて稀に、油膜がある海面を撮影したとき、特定の入射角度からの光が入射されて、短波長側映像処理部103から出力される映像信号と、中波長側映像処理部104から出力される映像信号と、長波長側映像処理部105から出力される映像信号とが一致することも考えられるが、このような場合でも、図17に示すように、波や風などによって海面140が常に変動し、海面104が鏡面状態のときの入射角度よりも、多様な入射角度からの光像101が波長選択型カメラ装置100に取り込まれていることから、特定の入射角度で反射率が同じレベルになっても、他の入射角度で反射率が異なるレベルとなり、差映像抽出部106から油膜を示す映像信号が出力される。
【0128】
このように、この実施の形態では、波長選択光学系102によって、油膜が浮かんだ海面140などを撮影して、短波長域の映像信号と、中波長域の映像信号と、長波長域の映像信号とを生成しながら、短波長側映像処理部103、中波長側映像処理部104、長波長側映像処理部105によって短波長域の映像信号、中波長域の映像信号、短波長域の映像信号を各々、デジタル化した後、差映像抽出部106によって短波長域の映像信号と、中波長域の映像信号、長波長域の映像信号との間の差を抽出して、水面に浮かんだ油膜の映像や有機膜の映像などのコントラストを高くした映像信号を生成し、これを次段装置に供給するようにしているので、水面の状態がどのような状態であっても、水面上の油膜や有機膜などを高いコントラストで画像として、検出することができる。
【0129】
これによって、従来、ヘリコプタ141や航空機などから目視観察で遭難現場など探索が困難な場合、例えば海面140からの反射光が強い場合(逆光状態)、雨天の場合、波浪が高い場合などでも、海面140の状態に関わらず、遭難した航空機や船舶などの油膜が海面上に浮いているとき、これを確実に検出して、遭難現場などを見つけ出すことができる。
【0130】
また、この実施の形態では、撮影した海面140などに油膜や有機膜などがあるときにのみ、差映像抽出部106から出力される映像信号がゼロ以外の値になるようにしているので、差映像抽出部106から出力される映像信号を次段装置などに設けられた判定回路に導き、予め設定されているしきい値を越えているかどうかを判定させるだけで、遭難現場の探索を容易に自動化することができる。これによって、ヘリコプタ141や航空機などに、図12に示す波長選択型カメラ装置100を複数、搭載し、各波長選択型カメラ装置100によって、全方位を同時に探索させ、油膜などの有無を自動判定させれば、従来の目視による場合に比べて、格段に探索効率を向上させて、迅速な災害救助を行なうことができる。
【0131】
また、図12に示す波長選択型カメラ装置100と、GPS(Global Positioning System)装置とを組み合わせることにより、油膜の位置を瞬時に決定することができ、これによって遭難現場などの発見を一層、迅速化させることができるとともに、タンカーなどの原油流出状況をリアルタイムで、容易に地図化することができる。
【0132】
<第2の実施の形態の第1変形例の説明>
また、図12に示す波長選択型カメラ装置100では、1つの入射面108と2つの全反射面109、110と第1出射面111、第2出射面112および第3出射面113とを有するプリズム114、このプリズム114内に配置され、図13に示すように、入射面108に入射された光像101を構成する長波長域の光、中波長域の光を透過させ、それ以外の光(短波長域の光)を反射させる光学的ローパスフィルタ115、プリズム114内に配置され、光学的ローパスフィルタ115を透過した長波長域の光、中波長域の光のうち、長波長域の光を透過させるとともに、それ以外の光(中波長域の光)を反射させる光学的ローパスフィルタ116によって構成され、第1出射面111、第2出射面112、第3出射面113から短波長域の光像、長波長域の光像、中波長域の光像を各々、出射させる分岐素子123を使用して、被写体からの光像101を短波長域の光像と、中波長域の光像と、長波長域の光像とに分離するようにしているが、このような分岐素子123に代えて、図18に示すような分岐素子142を使用するようにしても良い。
【0133】
この図に示す分岐素子142は、1つの入射面143と2つの全反射面144、145と第1〜第3出射面146、147、148とを有するプリズム149と、このプリズム149内に形成され、入射面143に入射された光像101の半分を反射させた後、全反射面144で全反射させて、第1出射面146から出射させるとともに、残り半分を透過させる第1反射透過面150と、プリズム149内に形成され、第1反射透過面150を透過した光像101の半分を透過させて、第2出射面147から出射させるとともに、残り半分を反射させた後、全反射面145で全反射させて、第3出射面148から出射させる第2反射透過面151とを備えており、入射面143にレンズ107からの光像が入射されたとき、第1、第2反射透過面150、151で、光像101の半分を透過させるとともに、半分を反射させて、第1出射面146、第2出射面147、第3出射面148から出射させる。
【0134】
勿論、この分岐素子142でも、レンズ107と、各撮像素子120、121、122との間の各光路長とが同じくなるように、分岐素子142内の各光路長が設定される。
【0135】
このように、レンズ107から出射される光像101を単純に、3分割する分岐素子142を使用しても、この分岐素子142の第1出射面146、第2出射面147、第3出射面148から各々、出射される光像を各光学的バンドパスフィルタ117、118、119によって、バンドパスフィルタリングして、短波長域の光像と、中波長域の光像と、短波長域の光像とを抽出し、これらを各撮像素子120、121、122に各々、入射させて、短波長域の映像信号と、中波長域の映像信号と、長波長域の映像信号とを出力させることができる。
【0136】
<第2の実施の形態の第2変形例の説明>
また、図12に示す波長選択型カメラ装置100では、1つの分岐素子123と、3つの光学的バンドパスフィルタ117、118、119と、3つの撮像素子120、121、122によって構成される波長選択光学系102を使用して、被写体からの光像101を短波長域の光像と、中波長域の光像と、長波長域の光像とに分離するようにしているが、図19に示すように、プリズム型バンドパスフィルタ152と、3つの撮像素子153、154、155とによって構成される波長選択光学系156を使用して、被写体からの光像101を短波長域の映像信号と、中波長域の映像信号と、長波長域の映像信号とを生成するようにしても良い(請求項14の内容)。
【0137】
この場合、プリズム型バンドパスフィルタ152は、1つの入射面157と2つの全反射面158、159と第1出射面160、第2出射面161および第3出射面162とを有するプリズム163と、このプリズム163内に配置され、図13に示すように、入射面157に入射された光像101を構成する長波長域の光、中波長域の光を透過させ、それ以外の光(短波長域の光)を反射させる光学的ローパスフィルタ164と、プリズム163内に配置され、光学的ローパスフィルタ164を透過した長波長域の光、中波長域の光のうち、長波長域の光を透過させるとともに、それ以外の光(中波長域の光)を反射させる光学的ローパスフィルタ165と、プリズム163の第1出射面160に接合され、波長λ1(この波長λ1は、光学的ローパスフィルタ164のカットオフ波長より短波長側にある波長)を中心波長とするバンドパスフィルタリング特性でプリズム163の第1出射面160から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ166と、プリズム163の第2出射面161に接合され、波長λ2(この波長λ2は、光学的ローパスフィルタ165のカットオフ波長より長波長側にある波長)を中心波長とするバンドパスフィルタリング特性でプリズム163の第2出射面161から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ167と、プリズム163の第3出射面162に接合され、波長λ3(この波長λ3は、光学的ローパスフィルタ165のカットオフ波長より短波長側にある波長)を中心波長とするバンドパスフィルタリング特性でプリズム163の第3出射面162から出射される光像をバンドパスフィルタリングする光学的バンドパスフィルタ168とを備えている。
【0138】
そして、プリズム163の各光学的ローパスフィルタ164、165によって、被写体からの光像101を取り込んで、短波長域の光像と、中波長域の光像と、長波長域の光像とに分離した後、各光学的バンドパスフィルタ166、167、168によって、短波長域の光像、中波長域の光像、長波長域の光像に各々、含まれている波長λ1を中心波長とする所定波長範囲の光像、波長λ2を中心波長とする所定波長範囲の光像、波長λ3を中心波長とする所定波長範囲の光像を抽出するとともに、各撮像素子153、154、155によって各光像を各々、光電変換し、これによって得られた短波長域の映像信号、中波長域の映像信号、長波長域の映像信号を短波長側映像処理部103と、中波長側映像処理部104と、長波長側映像処理部105とに各々、供給する。
【0139】
このように、プリズム型バンドパスフィルタ152と、3つの撮像素子153、154、155とによって構成される波長選択光学系156を使用しても、被写体からの光像101を短波長域の光像と、中波長域の光像と、長波長域の光像とに分離して、長波長域の映像信号と、中波長域の映像信号と、長波長域の映像信号とを生成することができる。
【0140】
《第3の実施の形態の説明》
次に、上述した各波長選択型カメラ装置1、100を使用して、海面上に浮いている油膜を検出する際における各撮像素子15、17などの分解能と、油膜検出感度の関係について説明する(請求項17の内容)。
【0141】
<静止状態での探査能力>
まず、上述した各波長選択型カメラ装置1、100、例えば図1に示す波長選択型カメラ装置1で使用されている撮像素子15、17の最小検出単位である各画素(ピクセル)が大きい場合や撮影距離が短い場合には、1つのピクセルに対し、入射角度φ1が異なる複数の光線が入射し、各ピクセルの出力が各光線の輝度を加算した値になる。
【0142】
この際、各光線毎の入射角度φ1が異なり、その角度差が大きいと、反射率から求めた輝度の波長依存性が緩和されて、油膜検出感度が低下する恐れがあることから、この点について詳細に説明する。
【0143】
今、波長選択型カメラ装置1で使用される撮像素子15、17として、垂直画素数が“450”、水平画素数が“600”程度の画素数に設定され、かつピクセルの受光部が正方形に形成される撮像素子を使用するものと仮定し、図20に示すように、ヘリコプタ170に波長選択型カメラ装置1を取り付けて、波長選択型カメラ装置1の画像取込み角度(波長選択型カメラ装置1の光軸171と被写体からの光線とがなす最大角度)を所定の値、例えば“±25”になるようにレンズ7を調整するとともに、波長選択型カメラ装置1の光軸171が海面172と直交するように、波長選択型カメラ装置1の撮影方向を調整した状態で、海面172からの高さが300〜800mとなるようにヘリコプタ170を飛ばして、海面172上に浮かんでいる油膜を探査する場合を考える。
【0144】
この場合、ヘリコプタ170が、例えば海面から300〜800m上空、例えば800m上空を飛びながら、波長選択型カメラ装置1によって海面172を撮影すると、図21に示すように波長選択型カメラ装置1の撮像素子15、17の撮影動作によって、1フレーム間に、海面172上で、直径“746m”の円に内接する長方形の領域ABCD(約597m×約448m)を探査することができることから、海面172上の“約1m2”の部分からの光線が撮像素子15、17を構成する1つのピクセルに入射される。
【0145】
この面積は、波やうなりなどによる海面172の揺らぎと比較すると、十分に小さな値であることから、本発明による波長選択型カメラ装置1を使用するだけで、十分な検出感度で、海面172に浮いている油膜を検出することができる。また、ハイビジョンテレビカメラ装置などの高解像度テレビカメラ装置で使用されている撮像素子を用いれば、分解できる最小面積Sを“0.2m2”にすることができることから、探査能力をさらに向上させることができる。
【0146】
<移動状態での探査能力、探査範囲>
また、探査範囲を広げるために、ヘリコプタ170を移動させながら、海面172上に浮いている油膜を探査する場合には、上述した分解可能な最小面積Sまで、検出するには、ヘリコプタ170の飛行速度V(Km/h)を以下に示す値にすることが望ましい。
【0147】
【数7】
0.5≦(V×103)/(3.6×103×30) …(7)
このように、ヘリコプタ170の飛行速度V(Km/h)を規制しても、ヘリコプタ170の飛行速度Vが約108km/hのとき、撮像素子15、17を構成する1ピクセル当たりの探査面積SをS≒1m2にすることができ、これによって油膜検出時における十分な分解能を確保しながら、1時間当たり、“64.8Km2(108×0.6Km2)”の広い範囲を探索することができる。
【0148】
<高速移動状態での探査能力、探査範囲>
また、このように、移動しながら探査する方法では、撮影方法として、連続撮影方法を使用することから、隣接したテレビフレーム間では、上下2画素列しか画像が変化しないようにすることができ、目視で映像信号の画像を観察して油膜などを検出する際には、これで十分であるが、本発明による波長選択型カメラ装置1では、次段装置内に判定回路を設けることにより、CCDなどの撮像素子15、17が持つ垂直画素数に匹敵する距離毎に撮影を行うようにすれば、探査を行なうヘリコプタ170などの飛行速度をさらに速くすることができ、これによってさらに広い範囲を捜索することができる。
【0149】
但し、このような方法で、撮影を行なう場合には、撮像素子15、17の前に光シャッタを設け、この光シャッタを動作させて、各ピクセルに空間分解能以下の海面面積からの光を入れることが必要であることから、光シャッタの開口時間tと、探査を行なうヘリコプタ170などの飛行速度V(Km/h)とが次式を満たすようにすることが望ましい。
【0150】
【数8】
0.5≦(V×103×t)/(3.6×103×30) …(8)
これにより、ヘリコプタ170に搭載した波長選択型カメラ装置1に設けた光シャッタの開口時間tを“t=5(ミリ秒)”にしたとき、“V≦720(Km/h)”にすることができ、先の例に比べて、およそ6.7倍(720×0.6=432Km2)に拡大することができる。
【0151】
さらに、1台のヘリコプタ170や航空機などに、波長選択型カメラ装置1を複数台、搭載し、各波長選択型カメラ装置1の撮影方向を互いに異ならせて、異なる方向を探査すれば、さらに探査範囲を拡大することができる。
【0152】
例えば、3台の波長選択型カメラ装置1を使用して、左右および真下を同時に監視すれば、1時間当たりの探査範囲を約1300Km2にすることができ、これによって1時間以内で、東京湾全域を隈無く探索することができる。
【0153】
<光シャッタの選択>
また、上述した光シャッタとしては、ネマチック液晶、コレステリック液晶、スメクチック液晶などの材料を使用することができる。この場合、光シャッタとして、90度ねじれネマチック液晶を使用すれば、白色光を変調することができ、これによって広い波長範囲で利用することができ、またスメクチック液晶の一種である強誘電性液晶や反強誘電性液晶を使用すれば、1ミリ秒以下の高速度で、光画像をピックアップすることができる(請求項18の内容)。
【0154】
また、光シャッタとして、LiNbO3、LiTaO3、KDP、DKDP、PZT、GaAsなどの電気材料を用いることもできる。但し、各電気材料の特性として、非常に高速で光像の透過/不透過を制御することができるものの、駆動する際、大きな印加電圧が必要である。
【0155】
これらのことから、光シャッタとして、強誘電性液晶や反強誘電性液晶を使用することが望ましい。
【0156】
【発明の効果】
以上説明したように本発明によれば、請求項1〜3の波長選択型カメラ装置では、海面からの反射光が強い場合でも、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化することができ、これによって遭難現場などを確実に見つけ出すことができる。
【0157】
また、請求項4〜6の波長選択型カメラ装置では、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化することができ、これによって遭難現場などを確実に見つけ出すことができる。
【0158】
また、請求項の波長選択型カメラ装置では、ヘリコプタや航空機などで、探索範囲の上空を高速で飛行しながら、海面からの反射光が強い場合でも、また海面がどのような状態であっても、海面上などに浮いている油膜や有機膜などを高いコントラストで映像化することができ、これによって遭難現場などを迅速に、かつ確実に見つけ出すことができる。
【図面の簡単な説明】
【図1】 本発明による波長選択型カメラ装置の一実施の形態のうち、請求項1〜3に対応する波長選択型カメラ装置の一例を示すブロック図である。
【図2】図1に示す波長選択光学系の詳細な構成例を示す上面図である。
【図3】図1に示す波長選択型カメラ装置の波長選択動作例を示すグラフである。
【図4】図1に示す波長選択光学系と同等な機能を持つ波長選択光学系の第1例を示す上面図である。
【図5】図1に示す波長選択光学系と同等な機能を持つ波長選択光学系の第2例を示す上面図である。
【図6】図5に示す光学的ローパスフィルタ、一方の光学的ハイパスフィルタの波長選択例を示すグラフである。
【図7】図5に示す光学的ローパスフィルタ、他方の光学的ローパスフィルタの波長選択例を示すグラフである。
【図8】図1に示す波長選択光学系と同等な機能を持つ波長選択光学系の第3例を示す上面図である。
【図9】図1に示す波長選択光学系と同等な機能を持つ波長選択光学系の第4例を示す上面図である。
【図10】図9に示す光学的ローパスフィルタ、一方の光学的バンドパスフィルタの波長選択例を示すグラフである。
【図11】図9に示す光学的ローパスフィルタ、他方の光学的バンドパスフィルタの波長選択例を示すグラフである。
【図12】 本発明による波長選択型カメラ装置の一実施の形態のうち、請求項4〜6に対応する波長選択型カメラ装置の一例を示すブロック図である。
【図13】図12に示す波長選択光学系を構成する各光学的ローパスフィルタの波長選択特性例を示すグラフである。
【図14】図12に示す波長選択光学系を構成する短波長域用光学的バンドパスフィルタの波長選択特性例を示すグラフである。
【図15】図12に示す波長選択光学系を構成する長波長域用光学的バンドパスフィルタの波長選択特性例を示すグラフである。
【図16】図12に示す波長選択光学系を構成する中波長域用光学的バンドパスフィルタの波長選択特性例を示すグラフである。
【図17】図12に示す波長選択型カメラ装置の使用例を示す概略構成図である。
【図18】図12に示す波長選択光学系と同等な機能を持つ波長選択光学系の第1例を示す上面図である。
【図19】図12に示す波長選択光学系と同等な機能を持つ波長選択光学系の第2例を示す上面図である。
【図20】本発明による波長選択型カメラ装置を使用して、海面上に浮いている油膜を検出する際の検出範囲を説明する正面図である。
【図21】本発明による波長選択型カメラ装置を使用して、海面上に浮いている油膜を検出する際の検出範囲を説明する模式図である。
【図22】従来から知られている一般的なフルカラーカメラ装置の一例を示すブロック図である。
【図23】海面上に浮いている油膜をモデル化した断面図である。
【図24】図23に示す中層が厚さ1μmで、かつ光を吸収しないときにおける反射率と波長との関係を示すグラフである。
【図25】図23に示す中層が厚さ10μmで、かつ光を吸収しないときにおける反射率と波長との関係を示すグラフである。
【図26】図23に示す中層が厚さ1μmで、かつ光を吸収するときにおける反射率と波長との関係を示すグラフである。
【図27】図23に示す中層が厚さ10μmで、かつ光を吸収するときにおける反射率と波長との関係を示すグラフである。
【符号の説明】
1:波長選択型カメラ装置
2、2a、2b、2c、2d、101:光像
3:波長選択光学系
4:短波長側映像処理部(画像演算部)
5:長波長側映像処理部(画像演算部)
6:差映像抽出部(画像演算部)
7:レンズ
8、29:入射面
9:反射透過面
10、31、111、146、160:第1出射面
11、32、112、147、161:第2出射面
12、144、145、158、159:全反射面
13、28:ビームスプリッタ(光学系)
14、16、69、117、118、119、70、166、167、168:光学的バンドパスフィルタ
15、17、34、35、53、54、71、72、120、121、122、153、154、155:撮像素子
18、21、124、127、130:ヘッドアンプ回路
19、22:映像処理回路
20、23:A/D変換回路
24:差分回路
25:絶対値回路
26:D/A変換回路
27:増幅回路
30:反射透過面
33:プリズム型バンドパスフィルタ(光学系)
36:波長選択光学系
37、39、56、58、74、76:前面
38、43、57、62、75、80、114、149、163:プリズム(光学系)
40、59、77:後面
41、42、60、61、78、79:斜面
44、48、63、81、115、116、164、165:光学的ローパスフィルタ
45、47、65、67、83、85:出射面
46、51、52:光学的ハイパスフィルタ
49、64、82、108:入射面
50:プリズム型ローパスフィルタ(光学系)
55:波長選択光学系
66、84、86、109、110:全反射面
68、:プリズム型ローパスフィルタ(光学系)
73、102:波長選択光学系
100:波長選択型カメラ装置
103:短波長側映像処理部(画像演算部)
104:中波長側映像処理部(画像演算部)
105:長波長側映像処理部(画像演算部)
106:差映像抽出部(画像演算部)
107:レンズ
113、148、162:第3出射面
123:分岐素子(光学系)
125、128、131:映像処理回路
126、129、132:A/D変換回路
133:短波長側差分回路
134:短波長側絶対値回路
135:長波長側差分回路
136:長波長側絶対値回路
137:加算回路
138:D/A変換回路
139:増幅回路
140、172:海面
141、170:ヘリコプタ
142:分岐素子
143、157:入射面
150:第1反射透過面
151:第2反射透過面
156:波長選択光学系
152:プリズム型バンドパスフィルタ(光学系)
171:光軸[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a wavelength selective camera device that extracts an object image of a specific wavelength by combining an optical bandpass filter and an image sensor, and in particular extracts an image of an oil film or the like floating on the sea surface. The present invention relates to a wavelength selective camera device for imaging.
[0002]
[Summary of Invention]
The present invention relates to a wavelength-selective camera device that extracts a specific image by combining an optical bandpass filter and an image sensor, and includes a plurality of image sensors having a photoelectric conversion function and the same for these image sensors. Same spatial coordinates for an optical system including a lens for distributing an optical image, a plurality of optical bandpass filters having different transmission wavelength bands provided between each imaging device and the lens, and a plurality of images having different wavelengths Alternatively, a wavelength selection type camera device with an image calculation unit that calculates a signal level difference and outputs a value proportional to the absolute value for each pixel having a spatial coordinate close to within an error range after registration adjustment As a high-contrast image, a thin film such as an oil film or an organic film floating on the sea surface or water surface that has been difficult to detect in the past It is intended to Zoka.
[0003]
[Prior art]
Conventionally, a full-color camera device shown in FIG. 22 is known as one of the wavelength selection type camera devices.
[0004]
In the full-color camera device 200 shown in this figure, a dichroic prism 205 is provided between the lens 201 and the image sensors 202, 203, and 204, and the white light 206 from the subject side is separated into the three primary color lights R, G, and B. is doing. In this case, as the image sensors 202, 203, and 204, CCD (Charge Coupled Device), MOS (Metal Oxide Semiconductor), CPD (Charge Priming Device), SIT (Static Induction Transistor), CMD (Charge Modulation Device), AMI (AMI) A conventional individual imaging device such as Amplified Mos Intelligent Imager) is used. In addition, imaging tubes such as planvicon, saticon, vidicon, carnicon, and harpicon are also used.
[0005]
The video signals generated by the image sensors 202 to 204 are supplied to the head amplifier circuits 207, 208, and 209, respectively amplified, and various compensation processes are performed by the video processing circuits 210, 211, and 212. Are combined by the encoder circuit 213, converted into a color television signal, and supplied to the next-stage apparatus.
[0006]
Here, in the full-color camera device 200, an iris or ND (Neutral Density) filter that attenuates the amount of incident light, an IR (Infrared) filter that blocks infrared rays, a pulse generator that sends a pulse signal to a drive circuit or an image processing circuit, A contour compensation circuit for emphasizing the contour of an image, a power source, and the like are also used. However, each component is omitted because it is not related to the essence of the full-color camera device 200.
[0007]
[Problems to be solved by the invention]
By the way, oil films or organic films floating in fresh water or sea water have a refractive index close to that of water, so when the light absorption rate is small, light (especially long-wavelength light longer than visible light) is hardly absorbed. Therefore, it is difficult to distinguish from transparent materials such as water and glass. Even when the absorption rate is large or the film thickness is thin, most of the light passes through the thin film, and it is difficult to visually distinguish it from a transparent substance such as water or glass. For example, the water absorption rate (about 2.3 × 10 for green light) -Four cm -1 ) Crude oil (absorption rate for green light is about 8cm) -1 : Literature [1] V. M.M. ZOLOTAREV, I.D. A. KITUSHINA, and S.K. M.M. SUTVVSKIY, Optical Characteristics of Oils in the 0.4-15μm Band, Oceanology Vol.17, No.6, pp.736-739 (1977)), but if the thickness is 1μm, at most 1% of light is absorbed. It is only done.
[0008]
For this reason, it is difficult to clearly distinguish between images of the sea surface and images of oil films, etc., with conventional wavelength selective camera devices that have been known so far, and it is possible to detect oil films and organic films floating in fresh water or sea water. Difficult to do.
[0009]
Similarly, the full-color camera device 200 shown in FIG. 22 aims to capture an image that is as close as possible to human visual characteristics, and thus cannot be easily detected by visual observation, such as the above-described oil film or organic film floating on the water surface. Even if a subject is photographed, these cannot be detected as high-contrast images.
[0010]
In addition, as a wavelength selection type camera device other than the full-color camera device 200, color filters that transmit light in a specific wavelength region and absorb light in other regions are installed before and after the lens of the full-color camera device. There is also a wavelength selective camera device.
[0011]
However, this wavelength selection type camera device only narrows the wavelength selection region of the full-color camera device, and the imaging principle is the same as that of the full-color camera device 200 of FIG. 22, so the full-color camera shown in FIG. Similar to the apparatus 200, it is difficult to make an oil film or an organic film floating on the water surface into a high-contrast image.
[0012]
Hereinafter, the oil film floating on the sea surface will be taken as an example, and the reason will be described in detail below with reference to the drawings.
[0013]
First, when an oil film floats on the sea surface, as shown in FIG. 23, an upper layer (generally air) 215, a middle layer (liquid oil film or organic film) 216, and a lower layer (liquid such as fresh water or seawater) 217 Since it can be regarded as a layer structure, when light 218 is incident on the middle layer 216 from the upper layer 215 side, light 219 is emitted from the upper layer 215 side while repeatedly reflecting inside the thin film constituting the middle layer 216. At the same time, light 220 is emitted from the lower layer 217 side. Since many of these lights 219 (or light 220) interfere with each other, the intensity of light 219 reflected by the thin film and light 220 transmitted through the thin film has a weak wavelength dependency. Therefore, the oil film floating on the water surface can be regarded as a kind of antireflection film or antireflection film having poor performance.
[0014]
Here, each refractive index of the upper layer 215, the middle layer 216, and the lower layer 217 is set to n. 1 , N 2 , N Three Assuming that the absorptance and thickness of the intermediate layer 216 are a and L, respectively, the intensity I of the reflected light from the intermediate layer 216 is given by the following equation (1).
[0015]
[Expression 1]
Figure 0003772016
Here, as shown in FIG. 23, ψ is a phase difference between adjacent reflected rays (light 219), and is expressed by the following equation (2), where λ is the wavelength of the incident light 218 in vacuum. be able to.
[0016]
[Expression 2]
ψ = (4πn 2 d) [1- (n 1 / N 2 ) 2 ] Sin 2 φ 1 ] 0.5 / Λ (2) However, in this equation (2), the incident angle of the light 218 incident on the middle layer 216 from the upper layer 215 is φ 1 It was. Further, as shown in FIG. 23, d is an optical path length when traversing the middle layer 216 only once, and is expressed by the following equation (3).
[0017]
[Equation 3]
d = L / [1- (1-n 1 / N 2 ) 2 sin 2 φ 1 ] 0.5 ... (3)
In addition, r 1 Is the amplitude reflectivity at the interface between the upper layer 215 and the middle layer 216, r 2 Is the amplitude reflectivity at the interface between the middle layer 216 and the lower layer 217, and is given by the following equation (4) when the incident light 218 is P-wave light.
[0018]
[Expression 4]
r 1 = Tan (φ 1 −φ 2 ) / Tan (φ 1 + Φ 2 )
r 2 = Tan (φ Three −φ 2 ) / Tan (φ Three + Φ 2 ) ... (4)
Where φ 2 , Φ Three Is represented by the following equation (5).
[0019]
[Equation 5]
φ 2 = Sin -1 [(N 1 / N 2 ) Sinφ 1 ]
φ Three = Sin -1 [(N 1 / N Three ) Sinφ 1 ] ... (5)
When the incident light 218 is S wave light, r 1 , R 2 Is given by the following equation (6).
[0020]
[Formula 6]
r 1 = -Sin (φ 1 −φ 2 ) / Sin (φ 1 + Φ 2 )
r 2 = -Sin (φ Three −φ 2 ) / Sin (φ Three + Φ 2 ) ... (6)
And the relationship between the reflected light (light 219) from the middle layer 216 and the wavelength can be obtained from the equations (1) to (6). For example, the upper layer 215 may be air (n 1 = 1), lower layer 217 is seawater (n Three = 1.33), the refractive index of the film which is the middle layer 216 is n 2 = 1.5, the absorption rate is a = 0 cm -1 Then, the relationship between the standardized reflection intensity of S wave light (hereinafter referred to as the reflectance of the middle layer 216) and the spectrum is shown in FIGS. 24 (a) to (e) and FIGS. 25 (a) to (e). Is done. However, FIGS. 24A to 24E show the case where the thickness L of the intermediate layer 216 is L = 1 μm, and FIGS. 25A to 25E show the case where the thickness L of the intermediate layer 216 is L = 10 μm. Refractive index dispersion is ignored. Here, the straight line (wave line) having no wavelength dependence is the reflectance of the sea surface without a film.
[0021]
As is clear from these figures, when the sea surface is spatially and temporally constant and the intensity of the light 218 incident on the film is constant, the reflected light intensity from the film and the reflection from the sea surface without the film are as follows. In principle, it is possible to distinguish between the two by measuring the difference in light intensity.
[0022]
However, in actuality, the height of the sea surface changes greatly both temporally and spatially, and the intensity of the light 218 incident on the film varies greatly depending on the weather conditions and the shooting direction. Angle φ 1 Not only when the difference between the reflected light intensity from the film and the reflected light intensity from the sea surface without the film is very small, but also the incident angle φ 1 Even if is large, it is very difficult to determine the position of the film only by detecting the difference between the reflectance of the film and the reflectance of the sea surface.
[0023]
Furthermore, in actual measurement, the reflectivity cannot be measured directly, the reflected light intensity must be measured, and the reflectivity must be calculated based on the measurement result. Thus, when the reflected light intensity is changing, unless a human intervenes in the determination, even if an oil film or the like floats on the sea surface, this cannot be recognized. Therefore, it has been pointed out that the conventional oil film detection method not only makes it impossible to automate the measurement, but also has a problem in reliability, such as a mistake in the oil film and the tide.
[0024]
In the above description, the calculation is performed on the condition that the absorption of the film is negligible. As shown in FIGS. 24A to 24E and FIGS. 25A to 25E, the reflection of the S wave light is performed. When the absorption is taken into account, for example, the absorption rate a of the film is set to a = 8 cm. -1 Even in this case, as shown in FIGS. 26A to 26E and FIGS. 27A to 27E, the reflectance of the intermediate layer 216 has wavelength dependency. However, FIG. 26 shows the case where the thickness L of the middle layer 216 is L = 1 μm, and FIG. 27 shows the case where the thickness L of the middle layer 216 is L = 10 μm, and the refractive index dispersion of each layer is ignored. Here, the straight line (wave line) having no wavelength dependence is the reflectance of the sea surface without a film.
[0025]
As is clear from these figures, even when the absorption rate of the film is large, the dependence of the reflectance of the film is only slightly reduced, and FIGS. 24 (a) to 24 (e) and FIGS. 25 (a) to 25 (e). ) And the fundamental difference is not different, just narrowing the wavelength region using an optical bandpass filter and simply photoelectrically converting it into an image with an image sensor as in conventional wavelength selective camera devices. Originally, an image with a very low contrast that is difficult or impossible to visually observe, such as an oil film floating on the sea surface, cannot be converted into a high-contrast and easy-to-view image.
[0026]
For this reason, when oil films and organic films floating on the sea surface have to be detected accurately and quickly, for example, when searching for damaged aircraft or ships, or accurately grasping the situation of crude oil spills from tankers, etc. However, there has been a strong demand for the development of a wavelength-selective camera device that cannot obtain an image of an oil film or the like and can obtain such an image.
[0027]
In view of the above circumstances, the present invention claims 1-3 Then, even when the reflected light from the sea surface is strong, it floats on the sea surface etc. Oil film An object of the present invention is to provide a wavelength selection type camera device that can be imaged with high contrast, and that can reliably find a distressed site.
[0028]
Claims 4-6 So, even if the reflected light from the sea surface is strong or in any state, it floats on the sea surface etc. Oil film An object of the present invention is to provide a wavelength selection type camera device that can be imaged with high contrast, and that can reliably find a distressed site.
[0029]
Claims 7 In helicopters and airplanes, while flying at high speed over the search range, even if the reflected light from the sea surface is strong or in whatever state the sea surface is floating above the sea surface, etc. Oil film It is an object of the present invention to provide a wavelength selective camera device that can be imaged with high contrast, and thereby quickly and reliably find a disaster site.
[0030]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, in claim 1, a light image obtained by a photographing operation is converted into a light image for each wavelength region, and a subject image having a specific wavelength is extracted. To detect oil slicks on seawater or freshwater In the wavelength selection type camera device, the optical system obtained by the photographing operation is transmitted / reflected to generate two optical images, and the transmission wavelength regions different from each other, and each of the optical systems generated by the optical system Two optical bandpass filters that extract an optical image of each wavelength region from the optical image, and an optical signal for each wavelength region extracted by each optical bandpass filter to photoelectrically convert the image signal of each wavelength region Each of the two imaging elements to be generated and each pixel constituting each video signal in each wavelength range output from each imaging element has the same spatial coordinates or spatial coordinates that are close within the error range after registration adjustment A signal level difference is calculated for each pixel, and based on the absolute value of this difference, an image calculation unit that generates a video signal is provided.
The difference between the center wavelengths of the two optical bandpass filters is
When the center wavelength of the optical bandpass filter on the short wavelength side is 400 nm or more and 500 nm or less, less than 30 nm,
When the center wavelength of the optical bandpass filter on the short wavelength side exceeds 500 nm and is 600 nm or less, it is less than 60 nm,
When the center wavelength of the optical bandpass filter on the short wavelength side exceeds 600 nm and is 1300 nm or less, it is less than 110 nm,
The center wavelength of the optical bandpass filter on the long wavelength side is determined so that
It is characterized by that.
[0031]
According to claim 2, in the wavelength selective camera device according to claim 1, the image calculation unit takes in each video signal output from each imaging device, and for each pixel constituting each video signal, A difference circuit that selects two pixels having the same spatial coordinates or close spatial coordinates within the error range after registration adjustment, and calculates the level difference between them, and the absolute value of the level difference output from the difference circuit And an absolute value circuit for calculating.
[0036]
Claims 3 Then, the claim 1 or 2 In the wavelength selective camera device described in 1), each optical bandpass filter has a feature that the absolute value of the difference between the center wavelengths of the optical bandpass filters becomes smaller as the center wavelength becomes shorter.
[0038]
Claims 4 Then, the optical image obtained by the photographing operation is converted into an optical image for each wavelength region, and a subject image having a specific wavelength is extracted. To detect oil slicks on seawater or freshwater In the wavelength selective camera device, an optical system that transmits / reflects a light image obtained by a photographing operation to generate three light images, and each light generated by the optical system having transmission wavelength regions different from each other. Three optical bandpass filters that extract optical images in each wavelength region from the image, and optical signals in each wavelength region extracted by each optical bandpass filter are photoelectrically converted to generate video signals in each wavelength region Each pixel having the same spatial coordinates or close spatial coordinates within an error range after registration adjustment for each pixel constituting each image signal in each wavelength range output from each imaging element A signal level difference is calculated every time, and based on the absolute value of this difference, an image calculation unit that generates a video signal is provided,
When the central wavelengths of the three optical bandpass filters are λ1, λ3, λ2 (λ1 <λ3 <λ2) (unit: nm),
When λ1 is 400 nm or more and 500 nm or less, λ3-λ1 is less than 30 nm,
When λ1 exceeds 500 nm and is 600 nm or less, λ3-λ1 is less than 60 nm,
When λ1 exceeds 600 nm and is 1300 nm or less, λ3-λ1 is less than 110 nm,
Λ3 is determined so that
λ3-λ1 <λ2-λ3,
When λ3 is 400 nm or more and 500 nm or less, λ2−λ3 is less than 30 nm,
When λ3 exceeds 500 nm and is 600 nm or less, λ2−λ3 is less than 60 nm,
When λ3 exceeds 600 nm and is 1300 nm or less, λ2−λ3 is less than 110 nm,
Λ2 is determined so that
It is characterized by that.
[0039]
Claims 5 Then, the claim 4 In the wavelength-selective camera device according to claim 1, the image calculation unit takes in each video signal output from each imaging device, and for each pixel constituting each video signal, the error after adjustment of the same spatial coordinates or registration Two or more difference circuits that select two pixels having spatial coordinates close to each other within a range and calculate the level difference between them, and an absolute value circuit that calculates the absolute value of the level difference output from each difference circuit It is characterized by having.
[0044]
Claims 6 Then, the claim 4 or 5 In each of the optical bandpass filters described above, the absolute value of the difference between the central wavelengths of two adjacent optical bandpass filters becomes smaller as the central wavelength becomes shorter. .
[0046]
Claims 7 Then, the claim Any one of 1 to 6 In the wavelength selective camera device described in 1., an optical shutter is disposed in front of the wavelength selective camera device, and the optical shutter is operated to intermittently supply an optical image to the wavelength selective camera device. It is a feature.
[0048]
In the above configuration, according to the first aspect, the optical system transmits / reflects the optical image obtained by the photographing operation to generate two optical images. Two optical bandpass filters having different transmission wavelength regions extract light images in each wavelength region from each light image generated by the optical system. The two imaging elements photoelectrically convert the optical image for each wavelength range extracted by each optical bandpass filter to generate a video signal for each wavelength range. Then, the image calculation unit, for each pixel constituting each video signal in each wavelength region output from each imaging device, each pixel having the same spatial coordinates or spatial coordinates close within the error range after registration adjustment A signal level difference is calculated every time, and a video signal is generated based on the absolute value of the difference. As a result, even if the reflected light from the sea surface is strong, the oil film or the organic film floating on the sea surface or the like is imaged with high contrast, and the scene of the distress etc. is surely found.
[0049]
According to a second aspect of the present invention, the image calculation unit captures each video signal output from each imaging device, and each pixel constituting each video signal has the same spatial coordinates or a proximity within an error range after registration adjustment. An image operation unit having a difference circuit that selects two pixels having the same spatial coordinates and calculates a level difference between them and an absolute value circuit that calculates an absolute value of the level difference output from the difference circuit is used. By doing so, even if the reflected light from the sea surface is strong, the oil film or organic film floating on the sea surface etc. is visualized with high contrast, and the disaster site etc. can be found out reliably.
[0054]
Claims 3 Then, as each optical bandpass filter, by using an optical bandpass filter in which the absolute value of the difference between the center wavelengths of each optical bandpass filter becomes smaller as the center wavelength becomes shorter, reflected light from the sea surface is reduced. Even if it is strong, the oil film or organic film floating on the surface of the sea etc. is imaged with high contrast to find out the location of the disaster.
[0056]
Claims 4 Then, the optical system transmits / reflects the optical image obtained in the photographing operation to generate three or more optical images, while three or more optical bandpass filters having different transmission wavelength regions, An optical image in each wavelength region is extracted from each optical image generated by the optical system. Three or more image pickup devices generate a video signal in each wavelength range by photoelectrically converting the optical image in each wavelength range extracted by each optical bandpass filter. Then, the image calculation unit, for each pixel constituting each video signal in each wavelength region output from each imaging device, each pixel having the same spatial coordinates or spatial coordinates close within the error range after registration adjustment A signal level difference is calculated every time, and a video signal is generated based on the absolute value of the difference. As a result, even if the reflected light from the sea surface is strong or in any state, the oil film or organic film floating on the sea surface etc. can be visualized with high contrast to ensure the location of the disaster. figure out.
[0057]
Claims 5 Then, as an image calculation unit, each video signal output from each image sensor is captured, and for each pixel constituting each video signal, the same spatial coordinates or spatial coordinates within the error range after registration adjustment are set. An image calculation unit having two or more difference circuits that select two pixels and calculate a level difference between them and an absolute value circuit that calculates an absolute value of the level difference output from each difference circuit is used. Therefore, even if the reflected light from the sea surface is strong or in any state, the oil film or organic film floating on the sea surface etc. can be visualized with high contrast to ensure the location of the disaster figure out.
[0062]
Claims 6 Then, as each optical bandpass filter, by using an optical bandpass filter in which the absolute value of the difference between the center wavelengths of two adjacent optical bandpass filters becomes smaller as the center wavelength becomes shorter, Regardless of whether the reflected light is strong or the surface of the sea, the oil film or organic film floating on the sea surface etc. is imaged with high contrast to find out the location of the disaster.
[0064]
Claims 7 Then, an optical shutter is arranged in front of the wavelength selection type camera device, and this optical shutter is operated to intermittently supply the optical image to the wavelength selection type camera device. Even when the reflected light from the sea surface is strong or in any state, the oil film or the organic film floating on the sea surface is imaged with high contrast while flying over the range at high speed. , Find out the location of a distress quickly and reliably.
[0066]
DETAILED DESCRIPTION OF THE INVENTION
<< Description of First Embodiment >>
<Basic description of the first embodiment>
FIG. 1 shows a preferred embodiment of a wavelength selective camera device according to the present invention. 1, 2, 3 It is a block diagram which shows an example of a corresponding wavelength selection type camera apparatus. In this figure, in order to simplify the explanation, parts not related to the explanation of the present invention, such as an iris and ND filter for attenuating the incident light quantity, components necessary for constituting the camera device, a drive circuit, A pulse generation circuit that sends a pulse signal to a video processing circuit, a contour compensation circuit that emphasizes the contour of a video, a power supply circuit, and the like are omitted.
[0067]
The wavelength selection type camera device 1 shown in this figure takes a light image 2 from a subject and photoelectrically converts it for each wavelength to generate a short wavelength video signal and a long wavelength video signal. A selection optical system 3, and a short wavelength side image processing unit 4 that performs image processing on the short wavelength video signal output from the wavelength selection optical system 3 to generate a digitized short wavelength video signal; From the long wavelength side image processing unit 5, a long wavelength side video processing unit 5 that generates a long wavelength range video signal obtained by performing image processing on the long wavelength range video signal output from the wavelength selection optical system 3. Based on the difference between the long-wavelength video signal output and the short-wavelength video signal output from the short-wavelength image processing unit 4, the image of the oil film floating on the sea surface or the water surface, the image of the organic film, etc. Difference video extraction unit that generates video signals with high contrast The short wavelength side image processing unit is configured to capture the sea surface where the oil film is floated by the wavelength selection optical system 3 and generate a short wavelength video signal and a long wavelength video signal. 4 image-processes the short-wavelength video signal to generate a digitized short-wavelength video signal, and the long-wavelength-side video processing unit 5 performs image processing on the long-wavelength video signal to digitize it. After generating the long-wavelength video signal, the difference video extraction unit 6 extracts the difference between the short-wavelength video signal and the long-wavelength video signal, and the image of the oil film floating on the water surface or organic A video signal with high contrast, such as a film image, is generated and supplied to the next-stage device (not shown).
[0068]
The wavelength selection optical system 3 captures a light image (white light image) 2 from a subject and forms a rear image by a predetermined distance, and a lens incident on the incident surface 8 as shown in FIG. A half of the light image 2 from 7 is divided into two equal parts by the reflection / transmission surface 9, and one light image (light image transmitted through the reflection / transmission surface 9) 2 a obtained by this equalization processing is straightly advanced to the second emission. The other light image (light image 2 a that is not reversed from the light image 2 a) 2 b reflected from the reflection / transmission surface 9 at an angle of 45 degrees is totally reflected by the total reflection surface 12 and emitted from the surface 11. A beam splitter 13 that emits light from one exit surface 10 and a wavelength λ 1 An optical bandpass filter 14 for bandpass filtering an optical image emitted from the first emission surface 10 of the beam splitter 13 with CCD, MOS, CPD, SIT, AMI, etc. A solid-state image sensor using silicon, a solid-state image sensor using a material exhibiting high sensitivity in the infrared region such as GaAs or InGaAs, or a solid using a material exhibiting high sensitivity to ultraviolet light or short-wavelength visible light such as amorphous selenium The optical band-pass filter 14 includes an image pickup device or an image pickup tube such as a planbicon, a saticon, a vidicon, a carnicon, a harpicon, and the optical path length between the lens 7 and the lens 7 is a predetermined distance. An image sensor 15 that photoelectrically converts an emitted light image and generates a video signal; That.
[0069]
Further, the wavelength selection optical system 3 has a wavelength λ 2 An optical bandpass filter 16 for bandpass filtering the light image emitted from the second emission surface 11 of the beam splitter 13, CCD, MOS, CPD, SIT, AMI, etc. A solid-state image sensor using silicon, a solid-state image sensor using a material exhibiting high sensitivity in the infrared region such as GaAs or InGaAs, or a solid using a material exhibiting high sensitivity to ultraviolet light or short-wavelength visible light such as amorphous selenium The optical path length to the lens 7 is a predetermined distance (the same distance as the distance between the lens 7 and the image sensor 15). The image sensor is composed of an image sensor or an image pickup tube such as a planbicon, a saticon, a vidicon, a carnicon, and a harpicone. Photoelectric conversion of the light image emitted from the optical bandpass filter 16 , And an imaging element 17 for generating a video signal.
[0070]
In this case, the upper layer side of the subject is air (refractive index n 1 = 1) If the lower layer is fresh water having a refractive index dispersion as shown in Table 1 (a table cited from the scientific chronology), the difference in reflectance from the fresh water is 1% or less, so that As shown, the center wavelength λ of the optical bandpass filter 14 increases as the transmission wavelength region of each of the optical bandpass filters 14 and 16 shifts to the short wavelength region side. 1 And the center wavelength λ of the optical bandpass filter 16 2 Absolute value of difference | λ 1 −λ 2 The center wavelength λ of the optical bandpass filter 14 so that | 1 And the center wavelength λ of the optical bandpass filter 16 2 Value is determined. Note that the values shown in Table 2 are only a guide, and the center wavelength λ of each optical bandpass filter 14, 16. 1 , Λ 2 May slightly deviate from each value.
[0071]
[Table 1]
Figure 0003772016
[Table 2]
Figure 0003772016
[0072]
Then, the optical image 2 from the subject is captured by the beam splitter 13 and divided into two equal parts, and one optical image 2b emitted from the beam splitter 13 is band-pass filtered by one optical band-pass filter 14. Light image in the short wavelength region (wavelength λ 1 And an optical image emitted from the optical bandpass filter 14 by one image sensor 15 is photoelectrically converted, and a video signal obtained thereby is converted into a short-wavelength side image. The other optical image 2 a supplied to the processing unit 4 and emitted from the beam splitter 13 by the other optical bandpass filter 16 is bandpass filtered to obtain an optical image in the long wavelength region (wavelength λ). 2 And an optical image emitted from the optical band-pass filter 16 by the other image sensor 17 is photoelectrically converted, and a video signal obtained thereby is converted into a long-wavelength side image. This is supplied to the processing unit 5.
[0073]
The short wavelength side image processing unit 4 a head amplifier circuit 18 that amplifies a short wavelength region image signal output from the wavelength selection optical system 3 with a constant amplification factor, and an image signal output from the head amplifier circuit 18. On the other hand, video for performing preset image processing, for example, dispersion compensation of each image sensor sensitivity, transmission region compensation of each optical bandpass filter 14, 16 and transmittance compensation of each optical bandpass filter 14,16. The wavelength selection optical system 3 includes a processing circuit 19 and an A / D conversion circuit 20 that A / D converts a video signal output from the video processing circuit 19 to generate a digitized video signal. For the short-wavelength video signal output from the optical signal, the pre-amplification process, the dispersion compensation process for each image sensor sensitivity, the transmission area compensation process for each optical bandpass filter 14, 16, and each optical Performs such transmittance compensation process command pass filter 14 and 16, and digitizes video signal thus obtained is supplied to the differential image extraction unit 6.
[0074]
The long-wavelength side image processing unit 5 also a head amplifier circuit 21 that amplifies a long-wavelength image signal output from the wavelength selection optical system 3 with a constant amplification factor, and an image output from the head amplifier circuit 21. Pre-set image processing for the signal, for example, dispersion compensation of each image sensor sensitivity, transmission region compensation of each optical bandpass filter 14, 16 and transmittance compensation of each optical bandpass filter 14,16, etc. And an A / D conversion circuit 23 for A / D converting a video signal output from the video processing circuit 22 to generate a digitized video signal. A pre-amplification process, a dispersion compensation process for each image sensor sensitivity, a transmission area compensation process for each optical bandpass filter 14, 16, for a video signal in a long wavelength range output from the system 3, Performs such transmittance compensation process histological bandpass filters 14 and 16, and digitizes video signal thus obtained is supplied to the differential image extraction unit 6.
[0075]
In this case, as a method of adjusting the video processing circuit 19 constituting the short wavelength side video processing unit 4 and the video processing circuit 22 constituting the long wavelength side video processing unit 5, for example, an object having a constant reflectance such as a blank sheet The video processing circuits 19 and 22 are set so that the video signal output from one A / D conversion circuit 20 and the video signal output from the other A / D conversion circuit 23 are equal to each other. The compensation constant is adjusted.
[0076]
The difference video extraction unit 6 takes in the digitized video signal output from the short wavelength side video processing unit 4 and the digitized video signal output from the long wavelength side video processing unit 5 to obtain each video signal. Among the pixels included in the image, the level difference between the pixels having the same spatial coordinates or the spatial coordinates having closeness within the error range after registration adjustment is calculated to calculate the difference between the video signals. A difference circuit 24 for generating a video signal, an absolute value circuit 25 for calculating an absolute value of the video signal output from the difference circuit 24, and an analog video signal in the digital signal format output from the absolute value circuit 25. A D / A conversion circuit 26 for converting the video signal into a signal format and an amplification circuit 27 for amplifying the video signal output from the D / A conversion circuit 26 are provided and output from the long wavelength side video processing unit 5. The The long-wavelength video signal and the short-wavelength video signal output from the short-wavelength image processing unit 4 are taken in, and the level difference is calculated for each pixel unit. A video signal with high contrast, such as a film image, is generated and supplied to the next-stage device.
[0077]
Next, the block diagram shown in FIG. and The operation of this embodiment will be described with reference to the graph shown in FIG.
[0078]
First, when the wavelength-selective camera device 1 photographs a sea surface where an oil film is floated, the light image 2 from the subject is captured by the beam splitter 13 of the wavelength-selective optical system 3 provided in the wavelength-selective camera device 1. After being divided into two equal parts, one optical image 2b emitted from the beam splitter 13 by one optical bandpass filter 14 is bandpass filtered to produce an optical image in the short wavelength region (wavelength λ 1 And a light image emitted from the optical bandpass filter 14 is photoelectrically converted by one image pickup device 15, and an image signal obtained thereby is converted to a short wavelength side. It is supplied to the video processing unit 4.
[0079]
Then, the short wavelength side image processing unit 4 performs preamplification processing on each short wavelength region video signal output from the wavelength selection optical system 3, variation compensation processing for each image sensor sensitivity, and each optical bandpass filter. 14 and 16 transmission region compensation processing, transmittance compensation processing of each of the optical bandpass filters 14 and 16, and the like are digitized and supplied to the difference video extraction unit 6. .
[0080]
In parallel with this operation, the other optical image 2a emitted from the beam splitter 13 is bandpass filtered by the other optical bandpass filter 16, and an optical image (wavelength λ) is obtained. 2 And an optical image emitted from the optical bandpass filter 16 is photoelectrically converted by one of the image pickup devices 17, and an image signal obtained thereby is converted to a long wavelength side. Supplied to the video processing unit 5, and by the long wavelength side video processing unit 5, a pre-amplification process, a variation compensation process of each image sensor sensitivity, for a video signal in a long wavelength range output from the wavelength selection optical system 3, The transmission region compensation processing of each optical bandpass filter 14, 16 and the transmittance compensation processing of each optical bandpass filter 14, 16 are performed, and the video signal obtained thereby is digitized to extract difference video. Supplied to section 6.
[0081]
Then, the difference video extraction unit 6 takes in the video signal in the long wavelength range output from the long wavelength side video processing unit 5 and the video signal in the short wavelength range output from the short wavelength side video processing unit 4. Thus, the level difference is calculated for each pixel unit, thereby generating a video signal with a high contrast such as an oil film image or an organic film image floating on the water surface and supplied to the next stage device.
[0082]
In this case, strictly speaking, as shown in the refractive index dispersion example of water as shown in Table 1, the change amount is very small as shown in Table 1 because the reflectance changes due to the refractive index dispersion of seawater. In the wavelength region shown in the upper stage, the refractive index dispersion of water may be ignored, and as shown in FIGS. 3A to 3E, the reflectance of the sea surface without the oil surface has almost wavelength dependency. Therefore, as shown in FIG. 3 (f), the two optical bandpass filters described at the bottom (the center wavelength λ of both) 1 , Λ 2 The image signal output from the short-wavelength-side image processing unit 4 and the long wavelength when the seawater surface having no oil surface is photographed using 14 and 16). The video signal output from the side video processing unit 5 becomes the same level in pixel units, and the video signal indicating zero is output from the difference video extraction unit 6.
[0083]
On the other hand, as shown in FIGS. 3A to 3E, in seawater with an oil film, the reflectance of the oil film changes greatly according to the wavelength regardless of the incident angle, but two optical bands. Center wavelength λ of the pass filters 14 and 16 1 , Λ 2 One optical bandpass filter 14 is limited to a wavelength region (regions A to B and regions B to C in FIG. 3) having a transmittance of 1 / e or more with respect to the transmittance (maximum transmittance). Since the reflectance of the wavelength region (A to B region of FIG. 3) and the reflectance of the wavelength region (B to C region of FIG. 3) of the other optical bandpass filter 16 are different, When the sea level with oil level is photographed, the video signal output from the short-wavelength side video processing unit 4 and the video signal output from the long-wavelength side video processing unit 5 are at different levels. A video signal indicating an oil film is output from the unit 6.
[0084]
Also, very rarely, when a sea surface with an oil film is photographed, light from a specific incident angle is incident and a video signal output from the short wavelength side video processing unit 4 and a long wavelength side video processing unit 5 It is conceivable that the output video signal matches, but even in such a case, the sea level is constantly fluctuating due to waves, winds, etc., and from various incident angles than the incident angle when the sea surface is in a mirror state. Since the optical image is taken into the wavelength selection type camera device 1, even if the reflectance becomes the same level at a specific incident angle, the reflectance becomes a different level at other incident angles. Outputs a video signal indicating an oil film.
[0085]
As described above, in this embodiment, the wavelength selection optical system 3 captures the sea surface where the oil film is floated and generates a short wavelength video signal and a long wavelength video signal while generating a short wavelength. The side video processing unit 4 performs image processing on the short wavelength video signal to generate a digitized short wavelength video signal, and the long wavelength side video processing unit 5 performs image processing on the short wavelength video signal. After generating the digitized video signal in the long wavelength range, the difference video extraction unit 6 extracts the difference between the short wavelength video signal and the long wavelength video signal, and the oil film floating on the water surface is extracted. Since video signals with high contrast such as video and organic film images are generated and supplied to the next-stage device, the oil film or organic film on the water surface, which has been difficult to detect in the past, is high. Detect as an image with contrast It is possible.
[0086]
As a result, when it is difficult to search for a distressed site by visual observation from a helicopter or an aircraft, for example, when the reflected light from the sea is strong (backlit state), in the rainy weather, or when the waves are high, Regardless of the state, when an oil slick such as a damaged aircraft or ship floats on the sea surface, it is possible to reliably detect this and find the location of the disaster.
[0087]
In this embodiment, the video signal output from the difference video extraction unit 6 is set to a value other than zero only when there is an oil film or an organic film on the photographed sea surface. The video signal output from the extraction unit 6 is guided to a determination circuit provided in the next-stage device or the like, and it is easily determined whether or not a preset threshold value is exceeded. can do. As a result, a plurality of wavelength selective camera devices 1 shown in FIG. 1 are mounted on a helicopter or an aircraft, and the respective wavelength selective camera devices 1 search for all directions simultaneously to automatically determine the presence or absence of an oil film or the like. Then, compared with the case of the conventional visual observation, search efficiency can be improved significantly and a rapid disaster relief can be performed.
[0088]
In addition, by combining the wavelength selective camera device 1 shown in FIG. 1 and a GPS (Global Positioning System) device, the position of the oil film can be determined instantaneously, thereby making it easier to find a distressed site or the like. In addition, it is possible to easily map the situation of crude oil spills such as tankers in real time.
[0089]
<Description of First Modification of First Embodiment>
Further, in the wavelength selective camera device 1 shown in FIG. 1, the light image 2 from the lens 7 is divided into two equal parts by the reflection / transmission surface 9 of the beam splitter 13, and one light image (the light image transmitted through the reflection / transmission surface 9). The other light image (light) reflected by the reflection / transmission surface 9 at an angle of 45 degrees and totally reflected by the total reflection surface 12 at an angle of 45 degrees is emitted from the second emission surface 11 by moving straight 2a. An optical image 2b that is not reversed right and left with respect to the image 2a is emitted from the first emission surface 10 to divide the optical image 2 from the subject into two equal parts. A beam splitter 28 as shown in FIG. 4 may be used.
[0090]
The beam splitter 28 shown in this figure makes the light image 2 from the lens 7 incident on the incident surface 29 incident on the reflection / transmission surface 30 at an incident angle α smaller than 45 degrees, and the light image transmitted through the reflection / transmission surface 30. The light 2c is caused to travel straight and exit from the second exit surface 32, and the light image 2d reflected by the reflection / transmission surface 30 is incident on the total reflection surface 86 at an incident angle β greater than 45 degrees to be totally reflected. An image (a light image that is not inverted from the light image 2 c) 2 d is emitted from the first emission surface 31.
[0091]
As described above, even if the beam splitter 28 is used, the optical image from the lens 7 is divided into two equal optical images 2c and 2d that are not reversed left and right, and the optical bandpass filters 14 and 16 are divided. Each can be made to enter and image on each of the image sensors 15 and 17.
[0092]
Of course, in this beam splitter 28 as well, the optical path length between the lens 7 and the one image sensor 15 and the optical path length between the lens 7 and the other image sensor 17 are the same. Each optical path length is set.
[0093]
<Description of Second Modification of First Embodiment>
Further, in the wavelength selection type camera apparatus 1 shown in FIG. 1, the wavelength selection optical system 3 including one beam splitter 13, two optical bandpass filters 14 and 16, and two imaging elements 15 and 17 is provided. However, as shown in FIG. 5, a wavelength selection optical system 36 including a prism type bandpass filter 33 and two image pickup devices 34 and 35 may be used (claim). Items 5 and 6).
[0094]
In this case, the prism type band pass filter 36 is cut so that the angle formed between the prism 38 whose front surface 37 side is cut by 45 degrees and the front surface 39 (rear surface 40) and the inclined surfaces 41 and 42 is 45 degrees and 135 degrees. The parallelogram-shaped prism 43 and the inclined surface 42 of the prism 43 and the front surface 37 of the prism 38 are arranged on the joint surface, and the incident optical image 2 is obtained with low-pass characteristics as shown in FIGS. The optical low-pass filter 44 that transmits the long-wavelength light and reflects the short-wavelength light, and the emission surface 45 of the prism 38 are joined. As shown in FIG. Characteristic cutoff wavelength λ 44 (Here, the wavelength at which the transmittance of the optical low-pass filter 44 is 50% of the maximum transmittance is defined as the cutoff wavelength). The optical low-pass filter has a cutoff wavelength characteristic shifted to the longer wavelength side. 44 of the long wavelength light transmitted through 44 46 An optical high-pass filter 46 that transmits light having a shorter wavelength (light in the shaded area) and a light exit surface 47 (rear surface 40) of the prism 43 are joined. As shown in FIG. Characteristic cutoff wavelength λ 44 Cut-off wavelength λ shifted to shorter wavelength side 48 Among the short wavelength light reflected by the optical low pass filter 44, the cutoff wavelength λ 48 And an optical low-pass filter 48 that transmits light having a longer wavelength (light in the shaded area).
[0095]
Of course, also in this prism type bandpass filter 33, the prism type so that the optical path length between the lens 7 and the one image sensor 34 and the optical path length between the lens 7 and the other image sensor 35 are the same. Each optical path length in the band pass filter 33 is set.
[0096]
When the optical image 2 from the lens 7 is incident on the incident surface 49 (front surface 39), the filtering operation of the optical low-pass filter 44 and the filtering operation of the optical high-pass filter 46 are used for each wavelength constituting the optical image 2. Of these, as shown in FIG. b A light image in a long wavelength region centered at the center is selected and incident on one image pickup device 35 to generate a video signal in the long wavelength region, and the filtering operation of the optical low-pass filter 44, the optical low-pass filter Of the wavelengths composing the optical image 2 by the filtering operation of 48, as shown in FIG. a (However, | λ a −λ b An optical image in a short wavelength region centering on | is a value satisfying Table 2) is selected and incident on the other imaging device 34 to generate a video signal in the short wavelength region.
[0097]
Thus, even if the wavelength selection optical system 36 constituted by the prism type bandpass filter 33 and the two image pickup devices 34 and 35 is used, the right and left of the optical image 2 from the lens 7 is not inverted 2 By dividing the light image into two equal parts, it is possible to generate a long-wavelength video signal and a short-wavelength video signal.
[0098]
<Description of Third Modification of First Embodiment>
Further, in the modification shown in FIG. 5, the wavelength selective optical system 36 is configured by the prism type bandpass filter 33 and the two image pickup devices 34 and 35. However, as shown in FIG. The low-pass filter 50, the optical low-pass filter 51, the optical high-pass filter 52, and the two imaging elements 53 and 54 constitute a wavelength selection optical system 55, and the optical image 2 is generated using the wavelength selection optical system 55. May be generated to generate a short-wavelength video signal and a long-wavelength video signal (contents of claim 5).
[0099]
In this case, the prism type low-pass filter 50 is cut so that the angle formed by the prism 57 whose front surface 56 side is cut by 45 degrees and the front surface 58 (rear surface 59) and the inclined surfaces 60 and 61 is 45 degrees and 135 degrees. The parallelogram prism 62, and the incident surface of the incident light image 2 having the same low-pass characteristics as the optical low-pass filter 44 shown in FIG. And an optical low-pass filter 63 that reflects the short-wavelength light and reflects the short-wavelength light. When the optical image 2 from the lens 7 is incident on the incident surface 64, the optical low-pass filter Through the filtering operation 63, the light of the long wavelength in the optical image 2 is transmitted, is emitted from the exit surface 65, and is incident on the optical high-pass filter 52. Together, after reflecting the short-wavelength light in the optical image 2 by the optical low-pass filter 63, which is reflected by the total reflection surface 66, it is emitted from the emission surface 67, to be incident on the optical low-pass filter 51.
[0100]
The optical low-pass filter 51 is composed of a filter plate having the same low-pass characteristics (low-pass characteristics shown in FIG. 7) as the optical low-pass filter 48 shown in FIG. Among the wavelengths constituting the optical image in the short wavelength range, as shown in FIG. a An optical image in a short wavelength region centering on is selected and made incident on one image pickup device 53 to generate a video signal in a short wavelength region.
[0101]
Further, the optical high-pass filter 52 is configured by a filter plate having the same high-pass characteristics (high-pass characteristics shown in FIG. 6) as the optical high-pass filter 46 shown in FIG. Among the wavelengths composing the long-wavelength light image emitted from the wavelength λ, as shown in FIG. b An optical image in a long wavelength region centering on is selected and made incident on the other image sensor 54 to generate a video signal in the long wavelength region.
[0102]
As described above, even if the wavelength selection optical system 55 configured by the prism type low-pass filter 50, the optical low-pass filter 51, the optical high-pass filter 52, and the two image pickup devices 53 and 54 is used, the lens 7 The optical image 2 from the above can be discriminated in wavelength to generate a short wavelength video signal and a long wavelength video signal.
[0103]
<Description of Fourth Modified Example of First Embodiment>
In the modification shown in FIG. 8, the wavelength selection optical system 55 is configured by the prism type low-pass filter 50, the optical low-pass filter 51, the optical high-pass filter 52, and the two imaging elements 53 and 54. However, as shown in FIG. 9, a wavelength selection optical system 73 is constituted by a prism type low-pass filter 68, two optical band-pass filters 69, 70, and two image sensors 71, 72, and this wavelength. The selection optical system 73 may be used for wavelength discrimination of the optical image 2 to generate a short-wavelength video signal and a long-wavelength video signal (contents of claim 5).
[0104]
In this case, the prism type low-pass filter 68 is cut so that the angle formed by the prism 75 whose front surface 74 side is cut by 45 degrees and the front surface 76 (rear surface 77) and the inclined surfaces 78 and 79 is 45 degrees and 135 degrees. The parallel quadrilateral prism 80 and the incident light image 2 having the same low-pass characteristics as the optical low-pass filter 63 shown in FIG. And an optical low-pass filter 81 that transmits the long-wavelength light and reflects the short-wavelength light. When the optical image 2 from the lens 7 is incident on the incident surface 82, the optical low-pass filter Through the filtering operation 81, the long-wavelength light in the optical image 2 is transmitted and emitted from the emission surface 83, and is transmitted to one optical bandpass filter 70. After reflecting the short wavelength light in the optical image 2 by the optical low-pass filter 81, the light is reflected by the total reflection surface 84 and emitted from the emission surface 85, and the other optical bandpass filter. 69 is incident.
[0105]
Further, as shown in FIG. 10, the optical bandpass filter 70 has a wavelength λ from an optical image in a long wavelength range selected by the lowpass filtering characteristic of the optical lowpass filter 81. d Is formed by a filter plate having a bandpass characteristic for extracting long-wavelength light contained in a predetermined region, and forms a long-wavelength light image emitted from the emission surface 83 of the prism type low-pass filter 68 As shown in FIG. d An optical image in a predetermined wavelength region centering on is selected and made incident on one image pickup device 72 to generate a video signal in a long wavelength region.
[0106]
Further, as shown in FIG. 11, the optical band-pass filter 69 has a wavelength λ from an optical image in a short wavelength range selected by the low-pass filtering characteristic of the optical low-pass filter 81. c Is formed by a filter plate having a bandpass characteristic for extracting short-wavelength light included in a predetermined region, and forms a short-wavelength light image emitted from the emission surface 85 of the prism type low-pass filter 68 As shown in FIG. c An optical image in a predetermined wavelength region centering on is selected and made incident on the other image sensor 71 to generate a video signal in a short wavelength region.
[0107]
As described above, the prism type low-pass filter 68, the two optical band-pass filters 69 and 70, and the two image sensors 71 and 72 constitute the wavelength selection optical system 73, and the wavelength selection optical system 73 is used. However, it is possible to discriminate the wavelength of the optical image 2 and generate a short wavelength video signal and a long wavelength video signal.
[0108]
<< Description of the Second Embodiment of the Invention >>
<Basic description of the second embodiment>
FIG. 12 is a block diagram showing an embodiment of the wavelength selective camera device according to the present invention. 4, 5, 6 It is a block diagram which shows an example of the wavelength selection type camera apparatus corresponding to. In this figure, in order to simplify the explanation, parts not related to the explanation of the present invention, such as an iris and ND filter for attenuating the incident light quantity, components necessary for constituting the camera device, a drive circuit, A pulse generation circuit that sends a pulse signal to a video processing circuit, a contour compensation circuit that emphasizes the contour of a video, a power supply circuit, and the like are omitted.
[0109]
The wavelength selection type camera device 100 shown in this figure takes a light image 101 from a subject, photoelectrically converts this for each wavelength, and outputs a short wavelength video signal, a medium wavelength video signal, and a long wavelength video signal. A wavelength selection optical system 102 that generates a video signal, and a short wavelength side that generates a digitized short wavelength video signal by performing image processing on the short wavelength video signal output from the wavelength selection optical system 102 An image processing unit 103; an image processing unit configured to perform image processing on an intermediate-wavelength image signal output from the wavelength selection optical system 102; A long-wavelength video processing unit 105 that generates a long-wavelength video signal obtained by performing image processing on a long-wavelength video signal output from the optical system 102 and a medium-wavelength video processing unit 104 Medium wavelength projection Using the signal as a reference, the difference between the long wavelength video signal output from the long wavelength video processing unit 105 and the short wavelength video signal output from the short wavelength video processing unit 103 is calculated to And a difference video extraction unit 106 that generates a video signal with a high contrast such as a floating oil film image or an organic film image.
[0110]
Then, the wavelength selection optical system 102 captures the sea surface where the oil film floats, and generates a short wavelength video signal, a medium wavelength video signal, and a long wavelength video signal while After the wavelength-side image processing unit 103, the medium-wavelength-side image processing unit 104, and the long-wavelength-side image processing unit 105 respectively digitize the short-wavelength image signal, the medium-wavelength image signal, and the short-wavelength image signal. The difference image extraction unit 106 extracts the difference between the short wavelength video signal, the medium wavelength video signal, and the long wavelength video signal, and the image of the oil film or the organic film floating on the water surface. A video signal with a high contrast is generated and supplied to a next-stage device (not shown).
[0111]
The wavelength selection optical system 102 captures a light image (white light image) 101 from a subject and forms an image rearward by a predetermined distance, one incident surface 108, two total reflection surfaces 109, 110, and the like. A prism 114 having a first exit surface 111, a second exit surface 112, and a third exit surface 113, and disposed in the prism 114, constitutes an optical image 101 incident on the entrance surface 108 as shown in FIG. The optical low-pass filter 115 that transmits light in the long wavelength range and light in the medium wavelength range and reflects other light (light in the short wavelength range) and the prism 114 are transmitted through the optical low-pass filter 115. Optical low-pass filter that transmits long-wavelength light (long-wavelength light) and reflects other light (medium-wavelength light) out of the long-wavelength light and medium-wavelength light Branching element that emits a short-wavelength light image, a long-wavelength light image, and a medium-wavelength light image from the first light-emitting surface 111, the second light-emitting surface 112, and the third light-emitting surface 113, respectively. 123 and wavelength λ as shown in FIG. 1 (This wavelength λ 1 Is a bandpass filtering optical image emitted from the first emission surface 111 of the branch element 123 with a bandpass filtering characteristic centered on a wavelength shorter than the cutoff wavelength of the optical lowpass filter 115. Bandpass filter 117 and solid-state imaging device using silicon, such as CCD, MOS, CPD, SIT, AMI, etc., or solid-state imaging device using a material having high sensitivity in the infrared region such as GaAs, InGaAs, or amorphous selenium An optical path between the lens 107 and a solid-state imaging device using a material exhibiting high sensitivity with ultraviolet rays or short-wavelength visible light, or an imaging tube such as a planbicon, sachicon, vidicon, carnicon, or harpicon Optical bandpass filter placed at a position where the length is a predetermined distance The optical image emitted from the 17 photoelectrically converts, and an imaging device 120 for generating a video signal.
[0112]
Further, the wavelength selection optical system 102 has a wavelength λ as shown in FIG. 2 (This wavelength λ 2 Is a bandpass filtering optical image emitted from the second emission surface 112 of the branching element 123 with a bandpass filtering characteristic having a center wavelength at a wavelength longer than the cutoff wavelength of the optical low pass filter 116. Band-pass filter 118, solid-state image sensor using silicon, such as CCD, MOS, CPD, SIT, AMI, etc., or solid-state image sensor using a material having high sensitivity in the infrared region such as GaAs, InGaAs, or amorphous selenium An optical path between the lens 107 and a solid-state imaging device using a material exhibiting high sensitivity with ultraviolet rays or short-wavelength visible light, or an imaging tube such as a planbicon, sachicon, vidicon, carnicon, or harpicon The length is a predetermined distance (the same distance as the distance between the lens 107 and the image sensor 120). Is disposed a position, photoelectrically converts the optical image emitted from the optical band-pass filter 116, an imaging element 121 to generate a video signal, as shown in FIG. 16, the wavelength λ Three (This wavelength λ Three Is a bandpass filtering optical image emitted from the third exit surface 113 of the branching element 123 with a bandpass filtering characteristic centered on a wavelength shorter than the cutoff wavelength of the optical low pass filter 116. Bandpass filter 119 and solid-state imaging device using silicon, such as CCD, MOS, CPD, SIT, AMI, etc., or solid-state imaging device using a material having high sensitivity in the infrared region such as GaAs, InGaAs, or amorphous selenium An optical path between the lens 107 and a solid-state imaging device using a material exhibiting high sensitivity with ultraviolet rays or short-wavelength visible light, or an imaging tube such as a planbicon, sachicon, vidicon, carnicon, or harpicon The length is a predetermined distance (the same distance as the distance between the lens 107 and the image sensor 120). Is disposed a position, photoelectrically converts the optical image emitted from the optical band-pass filter 119, and an imaging device 122 for generating a video signal.
[0113]
In this case, each center wavelength λ of each optical bandpass filter 117, 118, 119 1 , Λ 2 , Λ Three Between λ 1Three2 The center wavelengths λ of the optical bandpass filters 117, 118, and 119 so that 1 , Λ 2 , Λ Three Is determined. Further, the upper layer side of the subject is air (refractive index n 1 = 1) If the lower layer is fresh water having a refractive index dispersion as shown in Table 1, the optical band is set so that the influence of the lower layer refractive index dispersion is reduced and the difference in reflectance from the fresh water is reduced. Center wavelength λ of the pass filter 117 1 And the center wavelength λ of the optical bandpass filter 119 Three Absolute value of difference | λ 1 −λ Three , And the center wavelength λ of the optical bandpass filter 119 Three And the center wavelength λ of the optical bandpass filter 118 2 Absolute value of difference | λ Three −λ 2 | Toga | λ 1 −λ Three | <| Λ Three −λ 2 The transmission center wavelength λ of each optical bandpass filter 117, 118, 119 so that | 1 , Λ 2 , Λ Three Each value of is determined. Each wavelength λ 1 , Λ 2 , Λ Three The value of is a guide only, and the center wavelength λ of each optical bandpass filter 117, 118, 119 1 , Λ 2 , Λ Three May slightly deviate from each value.
[0114]
Then, the optical image 101 from the subject is captured by the branching element 123 and separated into a short wavelength optical image, a medium wavelength optical image, and a long wavelength optical image, and then each optical bandpass. By the filters 117, 118, and 119, the wavelength λ included in the light image in the short wavelength region, the light image in the medium wavelength region, and the light image in the long wavelength region, respectively. 1 An optical image in a predetermined wavelength range with a center wavelength of λ, wavelength λ 2 An optical image in a predetermined wavelength range with a center wavelength of λ, wavelength λ Three In addition to extracting a light image in a predetermined wavelength range having a center wavelength as a center wavelength, each optical image is photoelectrically converted by each of the imaging elements 120, 121, and 122, and a video signal in a short wavelength region, a medium wavelength region obtained thereby And the long wavelength video signal are supplied to the short wavelength side video processing unit 103, the medium wavelength side video processing unit 104, and the long wavelength side video processing unit 105, respectively.
[0115]
The short wavelength side image processing unit 103 amplifies the short wavelength image signal output from the wavelength selection optical system 102 with a constant amplification factor, and the image signal output from the head amplifier circuit 124. On the other hand, preset image processing, for example, compensation for variations in sensitivity of each image sensor, transmission region compensation for each optical bandpass filter 117, 118, 119, and transmittance compensation for each optical bandpass filter 117, 118, 119 A video processing circuit 125 that performs the above and the like, and an A / D conversion circuit 126 that performs A / D conversion on the video signal output from the video processing circuit 125 to generate a digitized video signal. Pre-amplification processing for each short-wavelength video signal output from the selection optical system 102, variation compensation processing for each imaging device sensitivity, and each optical bandpass The transmission region compensation processing of the filters 117, 118, and 119, the transmittance compensation processing of the optical bandpass filters 117, 118, and 119, etc. are performed, and the resulting video signal is digitized and sent to the difference video extraction unit 106. Supply.
[0116]
The medium wavelength side image processing unit 104 also a head amplifier circuit 127 that amplifies the medium wavelength region image signal output from the wavelength selection optical system 102 with a constant amplification factor, and an image output from the head amplifier circuit 127. Pre-set image processing for the signal, for example, compensation for variation in sensitivity of each image sensor, transmission region compensation for each optical bandpass filter 17, 118, 119, transmission through each optical bandpass filter 117, 118, 119 A video processing circuit 128 for performing rate compensation, and an A / D conversion circuit 129 for A / D converting the video signal output from the video processing circuit 128 to generate a digitized video signal. , Pre-amplification processing for each image signal in the middle wavelength range output from the wavelength selection optical system 102, compensation processing for variations in sensitivity of each image sensor, and each optical band The transmission region compensation processing of the filter filters 117, 118, and 119, the transmittance compensation processing of the optical bandpass filters 117, 118, and 119, and the like are performed. To supply.
[0117]
Further, the long wavelength side image processing unit 105 amplifies the long wavelength region image signal output from the wavelength selection optical system 102 with a constant amplification factor, and the image output from the head amplifier circuit 130. Pre-set image processing for the signal, for example, compensation for variations in sensitivity of each image sensor, transmission region compensation for each optical bandpass filter 117, 118, 119, transmission through each optical bandpass filter 117, 118, 119 A video processing circuit 131 for performing rate compensation, and an A / D conversion circuit 132 for A / D converting the video signal output from the video processing circuit 131 to generate a digitized video signal. , A pre-amplification process, a dispersion compensation process for each image sensor sensitivity, and an optical band for a video signal in a long wavelength range output from the wavelength selection optical system 102. The transmission region compensation processing of the pass filters 117, 118, and 119, the transmittance compensation processing of the respective optical bandpass filters 117, 118, and 119, and the like are performed. To supply.
[0118]
In this case, the video processing circuit 125 constituting the short wavelength side video processing unit 103, the video processing circuit 128 constituting the medium wavelength side video processing unit 104, and the video processing circuit 131 constituting the long wavelength side video processing unit 105, Is adjusted so that the video signals output from the A / D conversion circuits 126, 129, and 132 become equal in a state where a subject having a constant reflectance, such as blank paper, is photographed. , 128 and 131 are adjusted.
[0119]
The difference video extraction unit 106 takes in the digitized video signal output from the medium wavelength side video processing unit 104 and the digitized video signal output from the short wavelength side video processing unit 103 to obtain each video signal. Among the pixels included in the image, the level difference between the pixels having the same spatial coordinates or the spatial coordinates having closeness within the error range after registration adjustment is calculated to calculate the difference between the video signals. From the short wavelength side difference circuit 133 that generates the video signal to be shown, the short wavelength side absolute value circuit 134 that calculates the absolute value of the video signal output from the short wavelength side difference circuit 133, and the medium wavelength side video processing unit 104 The digitized video signal that is output and the digitized video signal that is output from the long wavelength side video processing unit 105 are captured, and the same space among the pixels included in each video signal A long-wavelength side difference circuit 135 that generates a video signal indicating a difference between the video signals by calculating a level difference between each pixel of the target or a spatial coordinate having a closeness within an error range after registration adjustment. A long wavelength side absolute value circuit 136 for calculating an absolute value of the video signal output from the long wavelength side difference circuit 135, and a digital signal format video signal output from the long wavelength side absolute value circuit 136 and a short signal. The digital signal format video signal output from the wavelength side absolute value circuit 134 is added to generate one video signal, and the digital signal format video signal output from the addition circuit 137 is analog. A D / A conversion circuit 138 for converting the video signal into a signal format and an amplification circuit 139 for amplifying the video signal output from the D / A conversion circuit 138 are provided.
[0120]
Then, the short wavelength video signal output from the short wavelength video processing unit 103, the medium wavelength video signal output from the medium wavelength video processing unit 104, and the long wavelength video processing unit 105 are output. The long-wavelength video signal and calculate the level difference between each pixel of the medium-wavelength video signal and each pixel of the short-wavelength video signal and each pixel of the medium-wavelength video signal. And the level difference between each pixel of the video signal in the long wavelength range and then adding each level difference to generate a video signal with high contrast such as an oil film image or an organic film image floating on the water surface Then, this is supplied to the next stage apparatus.
[0121]
Next, the operation of this embodiment will be described with reference to the block diagram shown in FIG.
[0122]
First, when the wavelength-selective camera device 100 captures an image of the sea surface where an oil film has floated, the light image 101 from the subject is captured by the branching element 123 of the wavelength-selective optical system 102 provided in the wavelength-selective camera device 100. After being captured and separated into a short-wavelength optical image, a medium-wavelength optical image, and a long-wavelength optical image, each optical bandpass filter 117, 118, 119 The wavelength λ included in the optical image, the optical image in the middle wavelength region, and the optical image in the long wavelength region, respectively 1 An optical image in a predetermined wavelength range with a center wavelength of λ, wavelength λ 2 An optical image in a predetermined wavelength range with a center wavelength of λ, wavelength λ Three In addition, a light image in a predetermined wavelength range having a center wavelength as a center wavelength is extracted, and each light image is photoelectrically converted by each of the image pickup devices 120, 121, and 122. Band video signal and long wavelength video signal are supplied to the short wavelength side video processing unit 103, the middle wavelength side video processing unit 104, and the long wavelength side video processing unit 105, respectively.
[0123]
Then, the short wavelength side video processing unit 103, the middle wavelength side video processing unit 104, the short wavelength side video signal output from the wavelength selection optical system 102 by the long wavelength side video processing unit 105, the middle wavelength range video signal, Pre-amplification processing, image sensor sensitivity variation compensation processing, transmission band compensation processing of each optical bandpass filter 117, 118, 119, each optical bandpass filter 117, 118, The short-wavelength image signal, the medium-wavelength image signal, and the long-wavelength image signal thus obtained are digitized and transmitted to the difference image extraction unit 106. Supplied.
[0124]
Next, the difference video extraction unit 106 uses a short wavelength video signal output from the short wavelength video processing unit 103, a medium wavelength video signal output from the medium wavelength video processing unit 104, and a long wavelength. The long wavelength video signal output from the side video processing unit 105 is captured, and the level difference between each pixel of the medium wavelength video signal and each pixel of the short wavelength video signal is calculated. After calculating the level difference between each pixel of the mid-wavelength video signal and each pixel of the long-wavelength video signal, the level difference is added and the image of the oil film or organic film floating on the water surface A video signal with high contrast is generated and supplied to the next-stage device.
[0125]
In this case, strictly speaking, the reflectance changes due to the refractive index dispersion of seawater, and as can be seen from the refractive index dispersion example of water shown in Table 1, the amount of change is very small. Since the refractive index dispersion of water may be ignored, and the reflectance of the sea surface without the oil surface has almost no wavelength dependency, the three optical bandpass filters 117, 118, 119 are used to When the seawater surface is photographed, the video signal output from the short wavelength side video processing unit 103, the video signal output from the middle wavelength side video processing unit 104, and the long wavelength side video processing unit 105 are output. The video signal becomes the same level as the video signal, and the video signal indicating zero is output from the difference video extraction unit 106.
[0126]
On the other hand, in seawater with an oil film, the reflectance of the oil film varies greatly depending on the wavelength regardless of the incident angle, but the center wavelengths λ of the three optical bandpass filters 117, 118, and 119 1 , Λ 2 , Λ Three As long as it is limited to a wavelength region having a transmittance of 1 / e or more of the transmittance (maximum transmittance), the light intensity of at least two wavelength regions among the wavelength regions of the optical bandpass filters 117, 118, 119 is Because of the difference, when a seawater surface with an oil surface is photographed, a video signal output from the short wavelength side video processing unit 103, a video signal output from the medium wavelength side video processing unit 104, and a long wavelength side video processing unit 105 Among the video signals output from, the two video signals are at different levels, and the video signal indicating the oil film is output from the difference video extraction unit 106.
[0127]
In addition, very rarely, when a sea surface with an oil film is photographed, light from a specific incident angle is incident and a video signal output from the short wavelength side video processing unit 103 and a medium wavelength side video processing unit 104 It is conceivable that the output video signal and the video signal output from the long wavelength side video processing unit 105 match, but even in such a case, as shown in FIG. Since the light image 101 from various incident angles is taken into the wavelength selective camera device 100 rather than the incident angle when the sea surface 104 is in a mirror state, the reflectance is increased at a specific incident angle. Even when the level is the same, the reflectance becomes different at other incident angles, and the video signal indicating the oil film is output from the difference video extraction unit 106.
[0128]
As described above, in this embodiment, the wavelength selection optical system 102 images the sea surface 140 where the oil film is floated, and the like, and the short wavelength image signal, the medium wavelength image signal, and the long wavelength image. The short-wavelength video signal is generated by the short-wavelength video processing unit 103, the medium-wavelength video processing unit 104, and the long-wavelength video processing unit 105. After each signal was digitized, the difference video extraction unit 106 extracted the difference between the short wavelength video signal, the middle wavelength video signal, and the long wavelength video signal, and floated on the water surface. A video signal with high contrast, such as an oil film image or an organic film image, is generated and supplied to the next-stage device. High contrast oil film and organic film An image can be detected.
[0129]
As a result, when it is difficult to search from a helicopter 141, an aircraft, or the like through a visual observation, the surface of the sea, for example, when the reflected light from the sea surface 140 is strong (backlit state), in the rain, or when the waves are high Regardless of the state of 140, when an oil film such as a damaged aircraft or ship floats on the sea surface, it is possible to reliably detect this and find a disaster site.
[0130]
Further, in this embodiment, the video signal output from the difference video extraction unit 106 is set to a value other than zero only when there is an oil film or an organic film on the photographed sea surface 140 or the like. By simply guiding the video signal output from the video extraction unit 106 to a determination circuit provided in the next-stage device or the like and determining whether or not a preset threshold value is exceeded, it is easy to search for a distress site. Can be automated. Accordingly, a plurality of wavelength selective camera devices 100 shown in FIG. 12 are mounted on a helicopter 141 or an aircraft, and each wavelength selective camera device 100 searches for all directions at the same time and automatically determines the presence or absence of an oil film or the like. Then, compared with the case of the conventional visual observation, search efficiency can be improved significantly and a quick disaster relief can be performed.
[0131]
In addition, by combining the wavelength selective camera device 100 shown in FIG. 12 and a GPS (Global Positioning System) device, the position of the oil film can be determined instantaneously, which makes it possible to find a distressed site more quickly. In addition, it is possible to easily map the situation of crude oil spills such as tankers in real time.
[0132]
<Description of First Modification of Second Embodiment>
Further, in the wavelength selective camera device 100 shown in FIG. 12, a prism having one incident surface 108, two total reflection surfaces 109, 110, a first exit surface 111, a second exit surface 112, and a third exit surface 113. 114, which is disposed in the prism 114 and transmits the light in the long wavelength region and the light in the medium wavelength region constituting the optical image 101 incident on the incident surface 108 as shown in FIG. The optical low-pass filter 115 that reflects the light in the short wavelength region and the long-wavelength light out of the long-wavelength light and the medium-wavelength light that are disposed in the prism 114 and transmitted through the optical low-pass filter 115 are reflected. It is constituted by an optical low-pass filter 116 that transmits and reflects other light (light in the medium wavelength range), and short waves from the first emission surface 111, the second emission surface 112, and the third emission surface 113. A branching element 123 that emits a light image in a long wavelength region, a light image in a long wavelength region, and a light image in a medium wavelength region, respectively, Although the optical image and the optical image in the long wavelength region are separated, a branching element 142 as shown in FIG. 18 may be used instead of such a branching element 123.
[0133]
The branch element 142 shown in this figure is formed in a prism 149 having one incident surface 143, two total reflection surfaces 144, 145, and first to third exit surfaces 146, 147, 148, and the prism 149. After reflecting half of the light image 101 incident on the incident surface 143, the light is totally reflected by the total reflection surface 144 and emitted from the first emission surface 146, while transmitting the remaining half. Then, half of the optical image 101 formed in the prism 149 and transmitted through the first reflection / transmission surface 150 is transmitted and emitted from the second emission surface 147, and the other half is reflected, and then the total reflection surface 145. And a second reflection / transmission surface 151 that emits from the third emission surface 148, and when the light image from the lens 107 is incident on the incident surface 143, the first and second reflection / transmission surfaces are provided. In terms 150 and 151, and to reflect half of the light image 101, by reflecting half, first output surface 146, second output surface 147, is emitted from the third emission surface 148.
[0134]
Of course, also in this branch element 142, each optical path length in the branch element 142 is set so that each optical path length between the lens 107 and each image sensor 120, 121, 122 is the same.
[0135]
Thus, even if the branch element 142 that simply divides the optical image 101 emitted from the lens 107 into three parts is used, the first exit surface 146, the second exit surface 147, and the third exit surface of the branch element 142 are used. The optical images emitted from 148 are bandpass filtered by optical bandpass filters 117, 118, and 119, respectively, so that a short-wavelength light image, a medium-wavelength light image, and a short-wavelength light An image is extracted and incident on each of the image sensors 120, 121, and 122, and a short-wavelength video signal, a medium-wavelength video signal, and a long-wavelength video signal are output. Can do.
[0136]
<Description of Second Modification of Second Embodiment>
Further, in the wavelength selection type camera device 100 shown in FIG. 12, the wavelength selection constituted by one branching element 123, three optical bandpass filters 117, 118, 119 and three imaging elements 120, 121, 122. The optical system 102 is used to separate the light image 101 from the subject into a short-wavelength light image, a medium-wavelength light image, and a long-wavelength light image. As shown, a wavelength selection optical system 156 composed of a prism type bandpass filter 152 and three image sensors 153, 154, 155 is used to convert a light image 101 from a subject into a video signal in a short wavelength region. Further, an intermediate-wavelength video signal and a long-wavelength video signal may be generated (content of claim 14).
[0137]
In this case, the prism type bandpass filter 152 includes a prism 163 having one incident surface 157, two total reflection surfaces 158 and 159, a first exit surface 160, a second exit surface 161, and a third exit surface 162; As shown in FIG. 13, the long-wavelength light and the medium-wavelength light that constitute the optical image 101 incident on the incident surface 157 are transmitted through the prism 163, and the other light (short wavelength). An optical low-pass filter 164 that reflects the light in the high-frequency band and a long-wavelength light that is disposed in the prism 163 and passes through the optical low-pass filter 164, and transmits the light in the long-wavelength band. In addition, the optical low-pass filter 165 that reflects the other light (light in the medium wavelength range) and the first emission surface 160 of the prism 163 are joined to each other, and the wavelength λ 1 (This wavelength λ 1 Is an optical filter for band-pass filtering the optical image emitted from the first exit surface 160 of the prism 163 with a band-pass filtering characteristic having a center wavelength at a wavelength shorter than the cutoff wavelength of the optical low-pass filter 164. The band-pass filter 166 is bonded to the second emission surface 161 of the prism 163 and has a wavelength λ. 2 (This wavelength λ 2 Is an optical filter for bandpass filtering an optical image emitted from the second emission surface 161 of the prism 163 with a bandpass filtering characteristic having a center wavelength at a wavelength longer than the cutoff wavelength of the optical low pass filter 165. The bandpass filter 167 and the third emission surface 162 of the prism 163 are joined to each other, and the wavelength λ Three (This wavelength λ Three Is an optical filter for band-pass filtering the optical image emitted from the third emission surface 162 of the prism 163 with a band-pass filtering characteristic centered on a wavelength shorter than the cutoff wavelength of the optical low-pass filter 165). A band pass filter 168.
[0138]
Then, the optical image 101 from the subject is captured by the optical low-pass filters 164 and 165 of the prism 163, and separated into a short wavelength optical image, a medium wavelength optical image, and a long wavelength optical image. After that, by the optical bandpass filters 166, 167, 168, the wavelength λ included in the light image in the short wavelength region, the light image in the medium wavelength region, and the light image in the long wavelength region, respectively. 1 An optical image in a predetermined wavelength range with a center wavelength, wavelength λ 2 An optical image in a predetermined wavelength range with a center wavelength, wavelength λ Three In addition to extracting a light image in a predetermined wavelength range having a center wavelength as a center wavelength, each image is photoelectrically converted by each of the image pickup devices 153, 154, and 155, and a video signal in a short wavelength region, a medium wavelength region obtained thereby And the long-wavelength video signal are supplied to the short-wavelength video processing unit 103, the medium-wavelength video processing unit 104, and the long-wavelength video processing unit 105, respectively.
[0139]
As described above, even when the wavelength selection optical system 156 configured by the prism type bandpass filter 152 and the three image pickup devices 153, 154, and 155 is used, the optical image 101 from the subject is converted into the optical image in the short wavelength region. Can be separated into an optical image in the middle wavelength region and an optical image in the long wavelength region to generate a video signal in the long wavelength region, a video signal in the middle wavelength region, and a video signal in the long wavelength region. it can.
[0140]
<< Description of Third Embodiment >>
Next, the relationship between the resolution of the imaging elements 15 and 17 and the oil film detection sensitivity when detecting the oil film floating on the sea surface using the wavelength selective camera devices 1 and 100 described above will be described. (Content of claim 17).
[0141]
<Capability of exploration in a stationary state>
First, when each pixel (pixel) which is the minimum detection unit of each of the wavelength selective camera devices 1 and 100 described above, for example, the imaging device 15 or 17 used in the wavelength selective camera device 1 shown in FIG. When the shooting distance is short, the incident angle φ for one pixel 1 A plurality of light beams having different values are incident, and the output of each pixel is a value obtained by adding the luminance of each light beam.
[0142]
At this time, the incident angle φ for each light beam 1 However, if the angle difference is large, the wavelength dependency of the luminance obtained from the reflectance is relaxed, and the oil film detection sensitivity may be lowered. This point will be described in detail.
[0143]
Now, as the imaging devices 15 and 17 used in the wavelength selective camera device 1, the number of vertical pixels is set to “450”, the number of horizontal pixels is set to “600”, and the light receiving part of the pixel is square. Assuming that the imaging device to be formed is used, as shown in FIG. 20, the wavelength selective camera device 1 is attached to the helicopter 170, and the image capture angle of the wavelength selective camera device 1 (wavelength selective camera device 1). The lens 7 is adjusted so that the maximum angle between the optical axis 171 and the light beam from the subject becomes a predetermined value, for example, “± 25”, and the optical axis 171 of the wavelength selective camera device 1 is With the imaging direction of the wavelength selective camera device 1 adjusted to be orthogonal, the helicopter 170 is blown so that the height from the sea surface 172 is 300 to 800 m and floats on the sea surface 172. Consider the case to explore the oil film are Nde.
[0144]
In this case, when the helicopter 170 takes an image of the sea surface 172 by the wavelength selective camera device 1 while flying over the sea surface, for example, 300 to 800 m above, for example, 800 m above, the imaging element of the wavelength selective camera device 1 as shown in FIG. 15 and 17, since a rectangular area ABCD (about 597 m × about 448 m) inscribed in a circle having a diameter of “746 m” can be explored on the sea surface 172 during one frame, on the sea surface 172 "About 1m 2 The light beam from the portion “” is incident on one pixel constituting the image sensors 15 and 17.
[0145]
Since this area is sufficiently small compared to the fluctuation of the sea surface 172 due to waves, beats, etc., the sea level 172 can be detected with sufficient sensitivity only by using the wavelength selective camera device 1 according to the present invention. A floating oil film can be detected. Further, if an image sensor used in a high-resolution television camera device such as a high-definition television camera device is used, the minimum area S that can be disassembled is set to “0.2 m”. 2 ", The exploration ability can be further improved.
[0146]
<Exploration capability and range when moving>
In addition, when the oil film floating on the sea surface 172 is explored while moving the helicopter 170 in order to expand the exploration range, the helicopter 170 can be detected by the flight of the helicopter 170 in order to detect the minimum resolvable area S. The speed V (Km / h) is preferably set to the following value.
[0147]
[Expression 7]
S 0.5 ≦ (V × 10 Three ) / (3.6 × 10 Three × 30) (7)
Thus, even if the flying speed V (Km / h) of the helicopter 170 is regulated, the exploration area S per pixel constituting the image sensors 15 and 17 is set when the flying speed V of the helicopter 170 is about 108 km / h. S ≒ 1m 2 Thus, while ensuring sufficient resolution at the time of oil film detection, “64.8 Km per hour” 2 (108 × 0.6Km 2 ) "" Wide range can be searched.
[0148]
<Exploration capability and exploration range in high-speed movement>
Further, in this way, in the method of exploring while moving, since the continuous shooting method is used as the shooting method, it is possible to change the image only in the upper and lower two pixel columns between adjacent TV frames, This is sufficient when an image of a video signal is visually observed to detect an oil film or the like. However, in the wavelength selective camera device 1 according to the present invention, a CCD is provided by providing a determination circuit in the next-stage device. If the imaging is performed at every distance equivalent to the number of vertical pixels of the imaging devices 15 and 17, etc., the flight speed of the helicopter 170 or the like for exploration can be further increased, thereby searching for a wider range. can do.
[0149]
However, when shooting is performed by such a method, an optical shutter is provided in front of the image sensors 15 and 17, and the optical shutter is operated to input light from the sea surface area below the spatial resolution to each pixel. Therefore, it is desirable that the opening time t of the optical shutter and the flight speed V (Km / h) of the helicopter 170 that performs the search satisfy the following equation.
[0150]
[Equation 8]
S 0.5 ≦ (V × 10 Three × t) / (3.6 × 10 Three × 30) (8)
Accordingly, when the opening time t of the optical shutter provided in the wavelength selective camera device 1 mounted on the helicopter 170 is set to “t = 5 (milliseconds)”, “V ≦ 720 (Km / h)” is set. Compared to the previous example, approximately 6.7 times (720 × 0.6 = 432 km) 2 ).
[0151]
Further, if a plurality of wavelength selective camera devices 1 are mounted on one helicopter 170 or an aircraft, and the imaging directions of the respective wavelength selective camera devices 1 are different from each other, and different directions are explored, further exploration is performed. The range can be expanded.
[0152]
For example, if three wavelength-selective camera devices 1 are used to monitor left and right and directly below, the search range per hour is about 1300 km. 2 This makes it possible to search all over Tokyo Bay in less than an hour.
[0153]
<Optical shutter selection>
For the above-described optical shutter, materials such as nematic liquid crystal, cholesteric liquid crystal, and smectic liquid crystal can be used. In this case, if a 90-degree twisted nematic liquid crystal is used as an optical shutter, white light can be modulated, and thus it can be used in a wide wavelength range, and a ferroelectric liquid crystal that is a kind of smectic liquid crystal or If an antiferroelectric liquid crystal is used, an optical image can be picked up at a high speed of 1 millisecond or less (content of claim 18).
[0154]
Also, as an optical shutter, LiNbO Three LiTaO Three An electrical material such as KDP, DKDP, PZT, or GaAs can also be used. However, although it is possible to control transmission / non-transmission of a light image at a very high speed as a characteristic of each electric material, a large applied voltage is required for driving.
[0155]
For these reasons, it is desirable to use a ferroelectric liquid crystal or an antiferroelectric liquid crystal as the optical shutter.
[0156]
【The invention's effect】
As described above, according to the present invention, the claims 1-3 With this wavelength-selective camera device, even when the reflected light from the sea surface is strong, oil film and organic film floating on the sea surface etc. can be visualized with high contrast, which makes it possible to find the location of distress etc. reliably be able to.
[0157]
Claims 4-6 With this wavelength-selective camera device, even if the reflected light from the sea surface is strong or in any state, the oil film or organic film floating on the sea surface can be imaged with high contrast. This makes it possible to find out where the distress is.
[0158]
Claims 7 In the wavelength-selective camera device, helicopters, aircrafts, etc. fly over the search range at high speed, even when the reflected light from the sea surface is strong, and in whatever state the sea surface is, on the sea surface, etc. The oil film and organic film floating on the screen can be imaged with high contrast, thereby enabling to quickly and surely find the disaster site.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a wavelength selective camera device according to the present invention; 1-3 It is a block diagram which shows an example of the wavelength selection type camera apparatus corresponding to.
FIG. 2 is a top view showing a detailed configuration example of the wavelength selection optical system shown in FIG. 1;
FIG. 3 is a graph showing an example of wavelength selection operation of the wavelength selective camera device shown in FIG. 1;
4 is a top view showing a first example of a wavelength selection optical system having a function equivalent to that of the wavelength selection optical system shown in FIG.
FIG. 5 is a top view showing a second example of a wavelength selection optical system having a function equivalent to that of the wavelength selection optical system shown in FIG.
6 is a graph showing an example of wavelength selection for the optical low-pass filter shown in FIG. 5 and one of the optical high-pass filters.
7 is a graph showing an example of wavelength selection of the optical low-pass filter shown in FIG. 5 and the other optical low-pass filter. FIG.
8 is a top view showing a third example of a wavelength selection optical system having a function equivalent to that of the wavelength selection optical system shown in FIG. 1. FIG.
FIG. 9 is a top view showing a fourth example of a wavelength selection optical system having a function equivalent to that of the wavelength selection optical system shown in FIG. 1;
10 is a graph showing an example of wavelength selection of the optical low-pass filter shown in FIG. 9 and one of the optical band-pass filters.
11 is a graph showing an example of wavelength selection of the optical low-pass filter shown in FIG. 9 and the other optical band-pass filter.
FIG. 12 is a block diagram showing an embodiment of the wavelength selective camera device according to the present invention; 4-6 It is a block diagram which shows an example of the wavelength selection type camera apparatus corresponding to.
13 is a graph showing an example of wavelength selection characteristics of optical low-pass filters constituting the wavelength selection optical system shown in FIG.
14 is a graph showing an example of wavelength selection characteristics of an optical bandpass filter for a short wavelength region constituting the wavelength selection optical system shown in FIG.
15 is a graph showing an example of wavelength selection characteristics of an optical bandpass filter for a long wavelength region constituting the wavelength selection optical system shown in FIG.
16 is a graph showing an example of wavelength selection characteristics of an optical bandpass filter for a medium wavelength region that constitutes the wavelength selection optical system shown in FIG. 12;
17 is a schematic configuration diagram showing an example of use of the wavelength selective camera device shown in FIG.
18 is a top view showing a first example of a wavelength selection optical system having a function equivalent to that of the wavelength selection optical system shown in FIG.
19 is a top view showing a second example of a wavelength selection optical system having a function equivalent to that of the wavelength selection optical system shown in FIG.
FIG. 20 is a front view for explaining a detection range when detecting an oil film floating on the sea surface using the wavelength selective camera device according to the present invention.
FIG. 21 is a schematic diagram illustrating a detection range when detecting an oil film floating on the sea surface using the wavelength selective camera device according to the present invention.
FIG. 22 is a block diagram illustrating an example of a general full-color camera device that has been conventionally known.
FIG. 23 is a cross-sectional view modeling an oil film floating on the sea surface.
24 is a graph showing the relationship between reflectance and wavelength when the middle layer shown in FIG. 23 has a thickness of 1 μm and does not absorb light.
25 is a graph showing the relationship between reflectance and wavelength when the middle layer shown in FIG. 23 has a thickness of 10 μm and does not absorb light.
FIG. 26 is a graph showing the relationship between the reflectance and wavelength when the middle layer shown in FIG. 23 has a thickness of 1 μm and absorbs light.
FIG. 27 is a graph showing the relationship between the reflectance and wavelength when the middle layer shown in FIG. 23 has a thickness of 10 μm and absorbs light.
[Explanation of symbols]
1: Wavelength selective camera device
2, 2a, 2b, 2c, 2d, 101: optical image
3: Wavelength selection optical system
4: Short wavelength side video processing unit (image calculation unit)
5: Long wavelength image processing unit (image calculation unit)
6: Difference video extraction unit (image calculation unit)
7: Lens
8, 29: Incident surface
9: Reflective transmission surface
10, 31, 111, 146, 160: first emission surface
11, 32, 112, 147, 161: second exit surface
12, 144, 145, 158, 159: Total reflection surface
13, 28: Beam splitter (optical system)
14, 16, 69, 117, 118, 119, 70, 166, 167, 168: Optical bandpass filter
15, 17, 34, 35, 53, 54, 71, 72, 120, 121, 122, 153, 154, 155: imaging device
18, 21, 124, 127, 130: head amplifier circuit
19, 22: Video processing circuit
20, 23: A / D conversion circuit
24: Difference circuit
25: Absolute value circuit
26: D / A conversion circuit
27: Amplifier circuit
30: Reflective transmission surface
33: Prism-type bandpass filter (optical system)
36: Wavelength selection optical system
37, 39, 56, 58, 74, 76: Front
38, 43, 57, 62, 75, 80, 114, 149, 163: Prism (optical system)
40, 59, 77: Rear side
41, 42, 60, 61, 78, 79: Slope
44, 48, 63, 81, 115, 116, 164, 165: Optical low-pass filter
45, 47, 65, 67, 83, 85: exit surface
46, 51, 52: Optical high-pass filter
49, 64, 82, 108: entrance plane
50: Prism type low-pass filter (optical system)
55: Wavelength selection optical system
66, 84, 86, 109, 110: Total reflection surface
68: Prism type low-pass filter (optical system)
73, 102: Wavelength selection optical system
100: Wavelength selective camera device
103: Short wavelength side video processing unit (image calculation unit)
104: Medium wavelength side image processing unit (image calculation unit)
105: Long wavelength side image processing unit (image calculation unit)
106: Difference video extraction unit (image calculation unit)
107: Lens
113, 148, 162: Third exit surface
123: Branch element (optical system)
125, 128, 131: Video processing circuit
126, 129, 132: A / D conversion circuit
133: Short wavelength side differential circuit
134: Short wavelength side absolute value circuit
135: Long wavelength difference circuit
136: Long wavelength side absolute value circuit
137: Adder circuit
138: D / A conversion circuit
139: Amplifier circuit
140, 172: sea level
141, 170: helicopter
142: Branch element
143, 157: Incident surface
150: First reflection / transmission surface
151: Second reflection / transmission surface
156: Wavelength selection optical system
152: Prism type bandpass filter (optical system)
171: Optical axis

Claims (7)

撮影動作によって得られた光像を各波長域毎の光像にして特定の波長の被写体画像を抽出することで海水面または淡水面上の油膜を検出する波長選択型カメラ装置において、
前記撮影動作によって得られた光像を透過/反射して、2つの光像を生成する光学系と、
互いに異なる透過波長領域を持ち、前記光学系によって生成された各光像から各波長域の光像を抽出する2つの光学的バンドパスフィルタと、
各光学的バンドパスフィルタによって抽出された各波長域毎の光像を光電変換して各波長域の映像信号を生成する2つの撮像素子と、
各撮像素子から出力される各波長域の各映像信号を構成する各画素について、同じ空間座標またはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ各画素毎に信号レベル差を計算し、この差の絶対値に基づき、映像信号を生成する画像演算部とを備え、
前記2つの光学的バンドパスフィルタの中心波長間の差が、
・短波長側の光学的バンドパスフィルタの中心波長が400nm以上500nm以下のときは30nm未満、
・短波長側の光学的バンドパスフィルタの中心波長が500nmを超えて600nm以下のときは60nm未満、
・短波長側の光学的バンドパスフィルタの中心波長が600nmを超えて1300nm以下のときは110nm未満、
となるように、長波長側の光学的バンドパスフィルタの中心波長が決定されている、
ことを特徴とする波長選択型カメラ装置。
In the wavelength selective camera device that detects the oil film on the seawater surface or freshwater surface by extracting the subject image of a specific wavelength by converting the optical image obtained by the photographing operation into an optical image for each wavelength range,
An optical system that transmits / reflects a light image obtained by the photographing operation to generate two light images;
Two optical bandpass filters that have different transmission wavelength regions and extract optical images in each wavelength region from each optical image generated by the optical system;
Two image sensors that photoelectrically convert a light image for each wavelength region extracted by each optical bandpass filter to generate a video signal for each wavelength region;
For each pixel that constitutes each video signal in each wavelength range output from each image sensor, the signal level difference is calculated for each pixel that has the same spatial coordinates or close spatial coordinates within the error range after registration adjustment. And an image calculation unit that generates a video signal based on the absolute value of the difference,
The difference between the center wavelengths of the two optical bandpass filters is
When the center wavelength of the optical bandpass filter on the short wavelength side is 400 nm or more and 500 nm or less, less than 30 nm,
When the center wavelength of the optical bandpass filter on the short wavelength side exceeds 500 nm and is 600 nm or less, it is less than 60 nm,
When the center wavelength of the optical bandpass filter on the short wavelength side exceeds 600 nm and is 1300 nm or less, it is less than 110 nm,
The center wavelength of the optical bandpass filter on the long wavelength side is determined so that
A wavelength-selective camera device characterized by that.
請求項1に記載の波長選択型カメラ装置において、
前記画像演算部は、
各撮像素子から出力される各映像信号を取り込んで、各映像信号を構成する各画素について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ2つの画素を選択し、これらのレベル差を計算する差分回路と、
この差分回路から出力されるレベル差の絶対値を計算する絶対値回路と、
を有することを特徴とする波長選択型カメラ装置。
The wavelength selective camera device according to claim 1,
The image calculation unit
Capture each video signal output from each image sensor, and select two pixels with the same spatial coordinates or close spatial coordinates within the error range after registration adjustment for each pixel constituting each video signal A difference circuit for calculating the difference between these levels;
An absolute value circuit for calculating the absolute value of the level difference output from the difference circuit;
A wavelength-selective camera device comprising:
請求項1または2に記載の波長選択型カメラ装置において、
前記各光学的バンドパスフィルタは、中心波長が短くなるほど、各光学的バンドパスフィルタの中心波長の差の絶対値が小さくなることを特徴とする波長選択型カメラ装置。
In the wavelength selection type camera device according to claim 1 or 2 ,
Each of the optical bandpass filters has a smaller absolute value of the difference between the center wavelengths of the optical bandpass filters as the center wavelength becomes shorter.
撮影動作によって得られた光像を各波長域毎の光像にして、特定の波長の被写体画像を抽出することで海水面または淡水面上の油膜を検出する波長選択型カメラ装置において、
撮影動作によって得られた光像を透過/反射して、3つの光像を生成する光学系と、
互いに異なる透過波長領域を持ち、前記光学系によって生成された各光像から各波長域の光像を抽出する3つの光学的バンドパスフィルタと、
各光学的バンドパスフィルタによって抽出された各波長域毎の光像を光電変換して各波長域の映像信号を生成する3つの撮像素子と、
各撮像素子から出力される各波長域の各映像信号を構成する各画素について、同じ空間座標またはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ各画素毎に信号レベル差を計算し、この差の絶対値に基づき、映像信号を生成する画像演算部とを備え、
前記3つの光学的バンドパスフィルタの中心波長をλ1、λ3、λ2(λ1<λ3<λ2)(単位nm)としたとき、
・λ1が400nm以上500nm以下のとき、λ3−λ1が30nm未満、
・λ1が500nmを超えて600nm以下のとき、λ3−λ1が60nm未満、
・λ1が600nmを超えて1300nm以下のとき、λ3−λ1が110nm未満、
となるようにλ3が決定されているとともに、
λ3−λ1<λ2−λ3であって、
・λ3が400nm以上500nm以下のとき、λ2−λ3が30nm未満、
・λ3が500nmを超えて600nm以下のとき、λ2−λ3が60nm未満、
・λ3が600nmを超えて1300nm以下のとき、λ2−λ3が110nm未満、
となるようにλ2が決定されている、
ことを特徴とする波長選択型カメラ装置。
In the wavelength selective camera device that detects the oil film on the seawater surface or freshwater surface by extracting the subject image of a specific wavelength by converting the optical image obtained by the photographing operation into an optical image for each wavelength range,
An optical system that transmits / reflects a light image obtained by a photographing operation to generate three light images;
Three optical bandpass filters that have different transmission wavelength regions and extract optical images in each wavelength region from each optical image generated by the optical system;
Three image sensors that photoelectrically convert a light image for each wavelength region extracted by each optical bandpass filter to generate a video signal in each wavelength region;
For each pixel that constitutes each video signal in each wavelength range output from each image sensor, the signal level difference is calculated for each pixel that has the same spatial coordinates or close spatial coordinates within the error range after registration adjustment. And an image calculation unit that generates a video signal based on the absolute value of the difference,
When the central wavelengths of the three optical bandpass filters are λ1, λ3, λ2 (λ1 <λ3 <λ2) (unit: nm),
When λ1 is 400 nm or more and 500 nm or less, λ3-λ1 is less than 30 nm,
When λ1 exceeds 500 nm and is 600 nm or less, λ3-λ1 is less than 60 nm,
When λ1 exceeds 600 nm and is 1300 nm or less, λ3-λ1 is less than 110 nm,
Λ3 is determined so that
λ3-λ1 <λ2-λ3,
When λ3 is 400 nm or more and 500 nm or less, λ2−λ3 is less than 30 nm,
When λ3 exceeds 500 nm and is 600 nm or less, λ2−λ3 is less than 60 nm,
When λ3 exceeds 600 nm and is 1300 nm or less, λ2−λ3 is less than 110 nm,
Λ2 is determined so that
A wavelength-selective camera device characterized by that.
請求項に記載の波長選択型カメラ装置において、
前記画像演算部は、
各撮像素子から出力される各映像信号を取り込んで、各映像信号を構成する各画素について、同じ空間座標もしくはレジストレーション調整後の誤差範囲内の近さの空間座標を持つ2つの画素を選択し、これらのレベル差を計算する2つ以上の差分回路と、
各差分回路から出力されるレベル差の絶対値を計算する絶対値回路と、
を有することを特徴とする波長選択型カメラ装置。
In the wavelength selection type camera device according to claim 4 ,
The image calculation unit
Capture each video signal output from each image sensor, and select two pixels with the same spatial coordinates or close spatial coordinates within the error range after registration adjustment for each pixel constituting each video signal Two or more difference circuits for calculating these level differences;
An absolute value circuit for calculating the absolute value of the level difference output from each difference circuit;
A wavelength-selective camera device comprising:
請求項4または5に記載の波長選択型カメラ装置において、
前記各光学的バンドパスフィルタは、中心波長が短くなるほど、隣接した2つの光学的バンドパスフィルタの中心波長の差の絶対値が小さくなることを特徴とする波長選択型カメラ装置。
The wavelength selective camera device according to claim 4 or 5 ,
Each of the optical bandpass filters has a smaller absolute value of the difference between the center wavelengths of two adjacent optical bandpass filters as the center wavelength becomes shorter.
請求項1乃至6のいずれか1項に記載の波長選択型カメラ装置において、
波長選択型カメラ装置の前に、光シャッタを配置し、この光シャッタを動作させて、前記波長選択型カメラ装置に間欠的に光像を供給する、
ことを特徴とする波長選択型カメラ装置。
The wavelength selective camera device according to any one of claims 1 to 6 ,
An optical shutter is disposed in front of the wavelength selective camera device, and the optical shutter is operated to intermittently supply an optical image to the wavelength selective camera device.
A wavelength-selective camera device characterized by that.
JP07981398A 1998-03-26 1998-03-26 Wavelength selective camera device Expired - Fee Related JP3772016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07981398A JP3772016B2 (en) 1998-03-26 1998-03-26 Wavelength selective camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07981398A JP3772016B2 (en) 1998-03-26 1998-03-26 Wavelength selective camera device

Publications (2)

Publication Number Publication Date
JPH11275429A JPH11275429A (en) 1999-10-08
JP3772016B2 true JP3772016B2 (en) 2006-05-10

Family

ID=13700655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07981398A Expired - Fee Related JP3772016B2 (en) 1998-03-26 1998-03-26 Wavelength selective camera device

Country Status (1)

Country Link
JP (1) JP3772016B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041258A (en) * 2000-11-27 2002-06-01 유진철 Improvement of color camera sensor color filter for VIDEO
JP5736846B2 (en) * 2011-03-02 2015-06-17 東亜ディーケーケー株式会社 Surface state observation apparatus and method
WO2013015733A1 (en) 2011-07-24 2013-01-31 Applied Presicion, Inc. Microscopy instruments with detector arrays and beam splitting system
JP6491537B2 (en) * 2015-05-20 2019-03-27 日本放送協会 Imaging device
JPWO2017018150A1 (en) * 2015-07-29 2018-02-22 富士フイルム株式会社 Optical sensor device, optical sensor unit and optical sensor system
JP7348710B2 (en) * 2017-11-08 2023-09-21 住友重機械エンバイロメント株式会社 water quality monitoring system
WO2026032496A1 (en) 2024-08-06 2026-02-12 Fr-Innovations Gmbh Attachable camera having a light source, and use of said attachable camera in forestry
KR102810100B1 (en) * 2024-11-11 2025-05-19 국립한밭대학교 산학협력단 High-performance, ultra-small, ultra-light mwir/lwir band spectroscopic camera apparatus for unmanned aerial vehicle

Also Published As

Publication number Publication date
JPH11275429A (en) 1999-10-08

Similar Documents

Publication Publication Date Title
King Airborne multispectral digital camera and video sensors: a critical review of system designs and applications
US4908705A (en) Steerable wide-angle imaging system
JP6291624B1 (en) Moving object detection apparatus and moving object detection program
AU2006202955A1 (en) Infrared laser illuminated imaging systems and methods
CN204963859U (en) Remote sensing parameter camera
JP3930164B2 (en) Wavelength selective LCD camera device
WO2021084907A1 (en) Image processing device, image processing method, and image processing program
JP3772016B2 (en) Wavelength selective camera device
US12018983B2 (en) Combined multi-spectral and polarization sensor
JP3078577B2 (en) System for electro-optical detection of underwater images unaffected by reflection from aircraft
Woodell et al. Advanced image processing of aerial imagery
King et al. Development of a multispectral video system and its application in forestry
CN108051088B (en) High-spectrum high-spatial-resolution integral field spectrum imaging system for underwater detection
Horváth et al. Polarization portrait of the Arago point: video-polarimetric imaging of the neutral points of skylight polarization
WO2018186016A1 (en) Information processing device, information processing method and program
WO2018163771A1 (en) Water quality inspection system and water quality inspection method
WO2017195858A1 (en) Multi-line image sensor devices, image capturing device, moving body detecting device, and moving body detecting program
Chenault et al. Infrared polarimetric sensing of oil on water
US7474334B1 (en) Multispectral imaging system and methods of use
Podobna et al. Optical detection of marine mammals
Verhoeven Becoming a NIR-sensitive aerial archaeologist
Roberts Integrated MSV airborne remote sensing
RU2405207C2 (en) Method of detecting exhaust products of gas-dynamic systems in atmosphere
Su et al. Multispectral array detectors based on computational imaging techniques
CN113156454A (en) Direct illumination and global illumination separation method based on field coupling constraint

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140217

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees